Certo ett mobil säkerhetsföretag har nyligen genomfört tester av Venice.ai en ny AI-chatbot som Certo påstår att den har blivit föremål för oro inom cybersäkerhetsvärlden. Venice.ai erbjuder ”ocensurerad” AI-åtkomst vilket innebär att användarna kan få tillgång until en AI som inte begränsas av traditionella innehållsfilter. Detta kan vara en dubbelkantad svärd, medan det öppnar upp för kreativitet och innovation kan det också utgöra en danger för cyberhot.
Below testerna lyckades Certo få Venice.ai att generera realistiska phishing-e-postmeddelanden och även fullt fungerande ransomware. Dessa resultat understryker faran med att öppna upp AI för användning utan robusta säkerhetsåtgärder.
Genom att erbjuda en plattform där all knowledge förblir på användarens enhet snarare än att lagras på servrar har Venice.ai positionerat sig som en privat och ocensurerad AI-alternativ. Det faktum att hela konversationshistoriken lagras lokalt kan ge en känsla av säkerhet males det eliminerar inte risken för missbruk av teknologin.

Enligt rapporter utnyttjar Venice.ai ledande öppen källkod som DeepSeek R1 671B och Llama 3.1 405B för att erbjuda kapabiliteter som kan skapa effektiva cyberhot. Det har blivit populärt i hackarforum där användare rapporterar att de kan generera skräddarsydda phishing-mail och olika typer av malware på bara några minuter. Det finns även exempel på hur Venice.ai har blivit en viktig resurs för kriminella som söker nya sätt att genomföra attacker.
Man kan påstå att de flesta avancerade open supply mjukvara används av hackare, Jag tycker att det här är en alarmist rapport som troligen har en agenda mot AI med öppen källkod.