Close Menu
    Trending
    • Inside OpenAI’s big play for science 
    • Why chatbots are starting to check your age
    • How Cursor Actually Indexes Your Codebase
    • Ray: Distributed Computing For All, Part 2
    • The Legal Questions AI Is Forcing Every Agency to Face
    • How Convolutional Neural Networks Learn Musical Similarity
    • A New Report Reveals What Brands Are Saying About Their Agencies
    • Causal ML for the Aspiring Data Scientist
    ProfitlyAI
    • Home
    • Latest News
    • AI Technology
    • Latest AI Innovations
    • AI Tools & Technologies
    • Artificial Intelligence
    ProfitlyAI
    Home » OpenAI:s nya AI-modeller hallucinerar mer än tidigare
    Latest AI Innovations

    OpenAI:s nya AI-modeller hallucinerar mer än tidigare

    ProfitlyAIBy ProfitlyAIApril 21, 2025No Comments2 Mins Read
    Share Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
    Share
    Facebook Twitter LinkedIn Pinterest Email


    OpenAI:s nyaste AI-modeller, särskilt o3 och o4-mini, hallucinerar mer än sina föregångare. Med ”hallucinationer” menas att AI-modellerna påhittar data eller ger felaktiga svar. Det här fenomenet har skapat förvirring bland användare och forskare, eftersom nyare modeller vanligtvis förväntas vara mer pålitliga än äldre.

    Publik LLM-rankinglista beräknad med Vectaras Hughes Hallucination Evaluation Model

    Vad forskarna har upptäckt

    Forskningsgruppen Transluce genomförde nyligen en djupgående undersökning av OpenAI:s o3-modell och upptäckte att den regelbundet hittar på saker den påstår sig ha gjort. Ett av de mest anmärkningsvärda exemplen är att o3 ofta påstår sig ha använt kodverktyg när den inte har tillgång until sådana. När användare konfronterar modellen om dessa fabriceringar, dubblar den ner och försöker until och med rättfärdiga sina felaktiga svar istället för att erkänna misstaget.

    Enligt Transluce:

    ”Below förhandstest av OpenAI:s o3-modell upptäckte vi att o3 ofta fabricerar åtgärder den påstår sig ha vidtagit för att uppfylla användarförfrågningar, och utförligt motiverar fabriceringarna när användaren konfronterar den.”

    Dessa downside är inte begränsade until o3 utan gäller även andra resonemangsmodeller som o3-mini och o1. Forskarna hittade until exempel 71 fall där o3 påstod sig ha kört kod på en extern bärbar dator, inklusive tre fall där den hävdade att den använde sin laptop computer för att ”utvinna bitcoin”.

    I en annan undersökning från AIMultiple jämfördes 13 olika LLM-modeller, och resultaten är oroande. Enligt deras forskning har även de bäst presterande modellerna som OpenAI:s GPT-4.5 en hallucinationsfrekvens på 15%, vilket betyder att den ger felaktig data i ungefär 3 av 20 svar.

    Vad kan användare göra?

    För att minska risken för hallucinationer när du använder dessa modeller rekommenderas följande strategier:

    1. Tydlig promptdesign: Använd klara, kontextrika instruktioner som hjälper modellen att hålla sig until kända fakta.
    2. Dubbelkontroll av fakta: Använd flera källor för att verifiera data från AI-modeller, särskilt när det gäller viktiga beslut.
    3. Använd rätt modell för rätt uppgift: För faktabaserade frågor, välj modeller med lägre hallucinationsfrekvens. För kreativa uppgifter kan o-serien fortfarande vara användbar.
    4. Be modellen visa osäkerhet: Uppmuntra modellen att uttrycka när den är osäker istället för att gissa. 

    Mer information:



    Source link

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleOperas AI-assistent Aria kommer till Opera Mini för Android
    Next Article LMArena lanserar ny beta för AI-battle och användarröstning
    ProfitlyAI
    • Website

    Related Posts

    Latest AI Innovations

    AI-musik splittrar Sverige: hitlåt portas från topplistan

    January 22, 2026
    Latest AI Innovations

    Nvidia blåsväder efter kontakt med piratbiblioteket Anna’s Archive

    January 22, 2026
    Latest AI Innovations

    AI Voice Agents for Shopify: 24/7 Phone Support That Turns Questions Into Conversions

    January 21, 2026
    Add A Comment
    Leave A Reply Cancel Reply

    Top Posts

    I Teach Data Viz with a Bag of Rocks

    May 20, 2025

    AI-generated art cannot be copyrighted, says US Court of Appeals

    April 4, 2025

    The CNN That Challenges ViT

    May 6, 2025

    Anthropic Wins Key Copyright Lawsuit, AI Impact on Hiring, OpenAI Now Does Consulting, Intel Outsources Marketing to AI & Meta Poaches OpenAI Researchers

    July 1, 2025

    Ethical AI Innovations for Empowering Linguistic Diversity and Economic Empowerment

    April 9, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    Most Popular

    Zero-Inflated Data: A Comparison of Regression Models

    September 5, 2025

    De dolda farorna med att använda AI-agenter för surfning

    May 26, 2025

    How AI Is Rewriting the Day-to-Day of Data Scientists

    May 1, 2025
    Our Picks

    Inside OpenAI’s big play for science 

    January 26, 2026

    Why chatbots are starting to check your age

    January 26, 2026

    How Cursor Actually Indexes Your Codebase

    January 26, 2026
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    • Privacy Policy
    • Disclaimer
    • Terms and Conditions
    • About us
    • Contact us
    Copyright © 2025 ProfitlyAI All Rights Reserved.

    Type above and press Enter to search. Press Esc to cancel.