Close Menu
    Trending
    • Why Should We Bother with Quantum Computing in ML?
    • Federated Learning and Custom Aggregation Schemes
    • How To Choose The Perfect AI Tool In 2025 » Ofemwire
    • Implementing DRIFT Search with Neo4j and LlamaIndex
    • Agentic AI in Finance: Opportunities and Challenges for Indonesia
    • Dispatch: Partying at one of Africa’s largest AI gatherings
    • Topp 10 AI-filmer genom tiderna
    • OpenAIs nya webbläsare ChatGPT Atlas
    ProfitlyAI
    • Home
    • Latest News
    • AI Technology
    • Latest AI Innovations
    • AI Tools & Technologies
    • Artificial Intelligence
    ProfitlyAI
    Home » Ny AI-jailbreak-teknik kringgår säkerhetsåtgärder hos stora språkmodeller
    Latest AI Innovations

    Ny AI-jailbreak-teknik kringgår säkerhetsåtgärder hos stora språkmodeller

    ProfitlyAIBy ProfitlyAIMay 1, 2025No Comments2 Mins Read
    Share Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
    Share
    Facebook Twitter LinkedIn Pinterest Email


    • HiddenLayer har utvecklat en universell prompt-injektionsteknik som kan kringgå säkerhetsspärrar i alla stora AI-modeller. 
    • Tekniken kan generera skadligt innehåll och läcka systeminstruktioner, vilket utgör en stor säkerhetsrisk. 
    • Coverage Puppetry Assault utnyttjar svagheter i hur AI-modeller tränas, vilket gör det svårt att åtgärda.

    Forskare vid cybersäkerhetsföretaget HiddenLayer har upptäckt en ny universell metod för att kringgå säkerhetsåtgärder i alla stora AI-språkmodeller. Tekniken som kallas ”Coverage Puppetry” fungerar på samtliga ledande AI-system inklusive OpenAI:s ChatGPT, Google Gemini, Microsoft Copilot, Anthropic Claude och många fler.

    Coverage Puppetry-attacken

    Tekniken utnyttjar ett grundläggande sätt som AI-modeller tolkar instruktioner på. Genom att omformulera förfrågningar så att de liknar policyformat som XML, INI eller JSON, kan en användare lura AI-modellen att åsidosätta sina inbyggda säkerhetsbegränsningar och instruktioner.

    Det som gör denna metod särskilt oroande är att den är både universell och överförbar. Med en enda immediate kan angripare få praktiskt taget vilken typ av skadligt innehåll som helst från alla stora AI-modeller – något som tidigare jailbreak-tekniker inte kunnat åstadkomma i samma utsträckning. ”Until skillnad från tidigare metoder som ofta är specifika för en viss modell eller typ av skadligt innehåll, kan Coverage Puppetry användas för att kringgå säkerhetsåtgärder i alla stora språkmodeller och generera i princip vilken typ av skadligt innehåll som helst,” förklarar forskarna bakom upptäckten.

    Allvarliga konsekvenser för AI-säkerhet

    I sina tester lyckades forskarna få AI-modeller att generera instruktioner för att anrika uran, tillverka bomber och producera metamfetamin – allt innehåll som normalt blockeras av säkerhetssystem.

    Ett exempel som forskarna delar visar hur de lyckades kringgå en medicinsk chatbot som uttryckligen programmerats att aldrig ge medicinsk rådgivning. Genom att använda Coverage Puppetry-tekniken kunde de få chatboten att ignorera dessa begränsningar.

    Mer data:

    HiddenLayer: Novel Universal Bypass for All Major LLMs



    Source link

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleFreepik lanserar F Lite en AI-bildgenerator som utmanar branschjättar
    Next Article Sam Altmans world ögonskannings-ID-projekt lanseras i USA
    ProfitlyAI
    • Website

    Related Posts

    Latest AI Innovations

    Topp 10 AI-filmer genom tiderna

    October 22, 2025
    Latest AI Innovations

    OpenAIs nya webbläsare ChatGPT Atlas

    October 22, 2025
    Latest AI Innovations

    51% av all internettrafik består nu av botar

    October 21, 2025
    Add A Comment
    Leave A Reply Cancel Reply

    Top Posts

    Using generative AI to diversify virtual training grounds for robots | MIT News

    October 8, 2025

    An Unbiased Review of Snowflake’s Document AI

    April 16, 2025

    From Tokens to Theorems: Building a Neuro-Symbolic AI Mathematician

    September 8, 2025

    I Teach Data Viz with a Bag of Rocks

    May 20, 2025

    Study could lead to LLMs that are better at complex reasoning | MIT News

    July 8, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    Most Popular

    Conversational AI Guide – Types, Advantages, Challenges & Use Cases

    April 7, 2025

    Mistral har lanserat sin nya AI-modell, Mistral Medium 3

    May 10, 2025

    Google Doppl – AI och Mode möts i en Virtuell Provrum-upplevelse

    June 28, 2025
    Our Picks

    Why Should We Bother with Quantum Computing in ML?

    October 22, 2025

    Federated Learning and Custom Aggregation Schemes

    October 22, 2025

    How To Choose The Perfect AI Tool In 2025 » Ofemwire

    October 22, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    • Privacy Policy
    • Disclaimer
    • Terms and Conditions
    • About us
    • Contact us
    Copyright © 2025 ProfitlyAI All Rights Reserved.

    Type above and press Enter to search. Press Esc to cancel.