Close Menu
    Trending
    • Topp 10 AI-filmer genom tiderna
    • OpenAIs nya webbläsare ChatGPT Atlas
    • Creating AI that matters | MIT News
    • Scaling Recommender Transformers to a Billion Parameters
    • Hidden Gems in NumPy: 7 Functions Every Data Scientist Should Know
    • Is RAG Dead? The Rise of Context Engineering and Semantic Layers for Agentic AI
    • ChatGPT Gets More Personal. Is Society Ready for It?
    • Why the Future Is Human + Machine
    ProfitlyAI
    • Home
    • Latest News
    • AI Technology
    • Latest AI Innovations
    • AI Tools & Technologies
    • Artificial Intelligence
    ProfitlyAI
    Home » OpenAI:s nya AI-modeller hallucinerar mer än tidigare
    Latest AI Innovations

    OpenAI:s nya AI-modeller hallucinerar mer än tidigare

    ProfitlyAIBy ProfitlyAIApril 21, 2025No Comments2 Mins Read
    Share Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
    Share
    Facebook Twitter LinkedIn Pinterest Email


    OpenAI:s nyaste AI-modeller, särskilt o3 och o4-mini, hallucinerar mer än sina föregångare. Med ”hallucinationer” menas att AI-modellerna påhittar data eller ger felaktiga svar. Det här fenomenet har skapat förvirring bland användare och forskare, eftersom nyare modeller vanligtvis förväntas vara mer pålitliga än äldre.

    Publik LLM-rankinglista beräknad med Vectaras Hughes Hallucination Evaluation Model

    Vad forskarna har upptäckt

    Forskningsgruppen Transluce genomförde nyligen en djupgående undersökning av OpenAI:s o3-modell och upptäckte att den regelbundet hittar på saker den påstår sig ha gjort. Ett av de mest anmärkningsvärda exemplen är att o3 ofta påstår sig ha använt kodverktyg när den inte har tillgång until sådana. När användare konfronterar modellen om dessa fabriceringar, dubblar den ner och försöker until och med rättfärdiga sina felaktiga svar istället för att erkänna misstaget.

    Enligt Transluce:

    ”Below förhandstest av OpenAI:s o3-modell upptäckte vi att o3 ofta fabricerar åtgärder den påstår sig ha vidtagit för att uppfylla användarförfrågningar, och utförligt motiverar fabriceringarna när användaren konfronterar den.”

    Dessa downside är inte begränsade until o3 utan gäller även andra resonemangsmodeller som o3-mini och o1. Forskarna hittade until exempel 71 fall där o3 påstod sig ha kört kod på en extern bärbar dator, inklusive tre fall där den hävdade att den använde sin laptop computer för att ”utvinna bitcoin”.

    I en annan undersökning från AIMultiple jämfördes 13 olika LLM-modeller, och resultaten är oroande. Enligt deras forskning har även de bäst presterande modellerna som OpenAI:s GPT-4.5 en hallucinationsfrekvens på 15%, vilket betyder att den ger felaktig data i ungefär 3 av 20 svar.

    Vad kan användare göra?

    För att minska risken för hallucinationer när du använder dessa modeller rekommenderas följande strategier:

    1. Tydlig promptdesign: Använd klara, kontextrika instruktioner som hjälper modellen att hålla sig until kända fakta.
    2. Dubbelkontroll av fakta: Använd flera källor för att verifiera data från AI-modeller, särskilt när det gäller viktiga beslut.
    3. Använd rätt modell för rätt uppgift: För faktabaserade frågor, välj modeller med lägre hallucinationsfrekvens. För kreativa uppgifter kan o-serien fortfarande vara användbar.
    4. Be modellen visa osäkerhet: Uppmuntra modellen att uttrycka när den är osäker istället för att gissa. 

    Mer information:



    Source link

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleOperas AI-assistent Aria kommer till Opera Mini för Android
    Next Article LMArena lanserar ny beta för AI-battle och användarröstning
    ProfitlyAI
    • Website

    Related Posts

    Latest AI Innovations

    Topp 10 AI-filmer genom tiderna

    October 22, 2025
    Latest AI Innovations

    OpenAIs nya webbläsare ChatGPT Atlas

    October 22, 2025
    Latest AI Innovations

    51% av all internettrafik består nu av botar

    October 21, 2025
    Add A Comment
    Leave A Reply Cancel Reply

    Top Posts

    Positional Embeddings in Transformers: A Math Guide to RoPE & ALiBi

    August 26, 2025

    Smarter Model Tuning: An AI Agent with LangGraph + Streamlit That Boosts ML Performance

    August 20, 2025

    Världens första AI-läkarklinik öppnar i Saudiarabien

    May 17, 2025

    AI-enabled control system helps autonomous drones stay on target in uncertain environments | MIT News

    June 9, 2025

    AI in Social Research and Polling

    April 4, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    Most Popular

    How to Perform Comprehensive Large Scale LLM Validation

    August 22, 2025

    Anthropic lanserar AI Fluency: En kurs om mänsklig-AI-samverkan

    June 15, 2025

    Agentic AI: On Evaluations | Towards Data Science

    August 7, 2025
    Our Picks

    Topp 10 AI-filmer genom tiderna

    October 22, 2025

    OpenAIs nya webbläsare ChatGPT Atlas

    October 22, 2025

    Creating AI that matters | MIT News

    October 21, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    • Privacy Policy
    • Disclaimer
    • Terms and Conditions
    • About us
    • Contact us
    Copyright © 2025 ProfitlyAI All Rights Reserved.

    Type above and press Enter to search. Press Esc to cancel.