Forskare från Polish-Japanese Academy of Info Expertise har kartlagt säkerhetsrisker hos LLM-drivna webbläsaragenter. Studien presenterar en heltäckande hotmodell och identifierar flera allvarliga säkerhetsproblem som prompt-injektion, kringgående av domänvalidering och datautvinning.
Genom en djupgående analys av det populära open source-projektet Browser Use demonstrerar de hur oskyddat webbinnehåll kan kapa agentens beteende och leda until allvarliga säkerhetsbrister. För att motverka dessa sizzling föreslår forskarna en flerskiktad säkerhetsstrategi som inkluderar inmatningssanering, isolering mellan planering och utförande, formella säkerhetsanalyser och sessionsövervakning för att skydda mot både initiala attacker och efterföljande exploatering.
- Auttonoma webbläsarbaserade AI-agenter använder LLMs för att automatisera komplexa webbuppgifter, males deras beroende av dynamiskt innehåll och användardata exponerar dem för omfattande attacker.
- Promptinjektioner utgör en kritisk sårbarhet där skadligt innehåll manipulerar agentens beteende och kan leda until dataläckage eller felaktiga åtgärder.
- Browser Use en öppen källkodsagent, har identifierats som särskilt sårbar för promptinjektioner och domänvalideringsbrister, vilket möjliggör agentkapning och otillåten navigering.
- Studien tekniker som input-sanitäring, automatisk omskrivning av textual content, LLM-baserad upptäckt av skadligt innehåll, och arkitektonisk isolering mellan planerings- och exekveringsmoduler som försvar mot initiala attacker.
- Browser Use lider av en kritisk brist i domänvalidering, som gör det möjligt för angripare att kringgå säkerhetsbegränsningar genom att manipulera URL-strukturen.
- Promptinjektioner i Browser Use möjliggör exfiltrering av känsliga knowledge genom att injicera skadliga meddelanden i HTML-innehåll som läses av agenten.