Close Menu
    Trending
    • Enabling small language models to solve complex reasoning tasks | MIT News
    • New method enables small language models to solve complex reasoning tasks | MIT News
    • New MIT program to train military leaders for the AI age | MIT News
    • The Machine Learning “Advent Calendar” Day 12: Logistic Regression in Excel
    • Decentralized Computation: The Hidden Principle Behind Deep Learning
    • AI Blamed for Job Cuts and There’s Bigger Disruption Ahead
    • New Research Reveals Parents Feel Unprepared to Help Kids with AI
    • Pope Warns of AI’s Impact on Society and Human Dignity
    ProfitlyAI
    • Home
    • Latest News
    • AI Technology
    • Latest AI Innovations
    • AI Tools & Technologies
    • Artificial Intelligence
    ProfitlyAI
    Home » Ny AI-jailbreak-teknik kringgår säkerhetsåtgärder hos stora språkmodeller
    Latest AI Innovations

    Ny AI-jailbreak-teknik kringgår säkerhetsåtgärder hos stora språkmodeller

    ProfitlyAIBy ProfitlyAIMay 1, 2025No Comments2 Mins Read
    Share Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
    Share
    Facebook Twitter LinkedIn Pinterest Email


    • HiddenLayer har utvecklat en universell prompt-injektionsteknik som kan kringgå säkerhetsspärrar i alla stora AI-modeller. 
    • Tekniken kan generera skadligt innehåll och läcka systeminstruktioner, vilket utgör en stor säkerhetsrisk. 
    • Coverage Puppetry Assault utnyttjar svagheter i hur AI-modeller tränas, vilket gör det svårt att åtgärda.

    Forskare vid cybersäkerhetsföretaget HiddenLayer har upptäckt en ny universell metod för att kringgå säkerhetsåtgärder i alla stora AI-språkmodeller. Tekniken som kallas ”Coverage Puppetry” fungerar på samtliga ledande AI-system inklusive OpenAI:s ChatGPT, Google Gemini, Microsoft Copilot, Anthropic Claude och många fler.

    Coverage Puppetry-attacken

    Tekniken utnyttjar ett grundläggande sätt som AI-modeller tolkar instruktioner på. Genom att omformulera förfrågningar så att de liknar policyformat som XML, INI eller JSON, kan en användare lura AI-modellen att åsidosätta sina inbyggda säkerhetsbegränsningar och instruktioner.

    Det som gör denna metod särskilt oroande är att den är både universell och överförbar. Med en enda immediate kan angripare få praktiskt taget vilken typ av skadligt innehåll som helst från alla stora AI-modeller – något som tidigare jailbreak-tekniker inte kunnat åstadkomma i samma utsträckning. ”Until skillnad från tidigare metoder som ofta är specifika för en viss modell eller typ av skadligt innehåll, kan Coverage Puppetry användas för att kringgå säkerhetsåtgärder i alla stora språkmodeller och generera i princip vilken typ av skadligt innehåll som helst,” förklarar forskarna bakom upptäckten.

    Allvarliga konsekvenser för AI-säkerhet

    I sina tester lyckades forskarna få AI-modeller att generera instruktioner för att anrika uran, tillverka bomber och producera metamfetamin – allt innehåll som normalt blockeras av säkerhetssystem.

    Ett exempel som forskarna delar visar hur de lyckades kringgå en medicinsk chatbot som uttryckligen programmerats att aldrig ge medicinsk rådgivning. Genom att använda Coverage Puppetry-tekniken kunde de få chatboten att ignorera dessa begränsningar.

    Mer data:

    HiddenLayer: Novel Universal Bypass for All Major LLMs



    Source link

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleFreepik lanserar F Lite en AI-bildgenerator som utmanar branschjättar
    Next Article Sam Altmans world ögonskannings-ID-projekt lanseras i USA
    ProfitlyAI
    • Website

    Related Posts

    Latest AI Innovations

    Differential Privacy vs. Encryption: Securing AI for Data Anonymization

    December 5, 2025
    Latest AI Innovations

    Will AI Slop Kill the Creator Economy? How to Survive as a Creator

    December 5, 2025
    Latest AI Innovations

    Why AI is the New Social Media: A Shift from Connection to Personalization

    December 5, 2025
    Add A Comment
    Leave A Reply Cancel Reply

    Top Posts

    Three Essential Hyperparameter Tuning Techniques for Better Machine Learning Models

    August 22, 2025

    Google Cloud Next 2025 presenterade flera nya moln och AI-teknologier

    April 10, 2025

    OpenAI’s “Ad” Backlash and Why It Signals a Deeper Problem

    December 10, 2025

    DeepVerse 4D – AI som förstår världen i fyra dimensioner

    June 10, 2025

    Survival Analysis When No One Dies: A Value-Based Approach

    May 14, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    Most Popular

    ChatGPT Agent Is Here

    July 22, 2025

    En ny rapport avslöjar våra AI-favoriter

    June 29, 2025

    Estimating Disease Rates Without Diagnosis

    July 18, 2025
    Our Picks

    Enabling small language models to solve complex reasoning tasks | MIT News

    December 12, 2025

    New method enables small language models to solve complex reasoning tasks | MIT News

    December 12, 2025

    New MIT program to train military leaders for the AI age | MIT News

    December 12, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    • Privacy Policy
    • Disclaimer
    • Terms and Conditions
    • About us
    • Contact us
    Copyright © 2025 ProfitlyAI All Rights Reserved.

    Type above and press Enter to search. Press Esc to cancel.