Close Menu
    Trending
    • Why Care About Prompt Caching in LLMs?
    • How Vision Language Models Are Trained from “Scratch”
    • Why physical AI is becoming manufacturing’s next advantage
    • Personalized Restaurant Ranking with a Two-Tower Embedding Variant
    • A Tale of Two Variances: Why NumPy and Pandas Give Different Answers
    • How to Build Agentic RAG with Hybrid Search
    • Building a strong data infrastructure for AI agent success
    • Defense official reveals how AI chatbots could be used for targeting decisions
    ProfitlyAI
    • Home
    • Latest News
    • AI Technology
    • Latest AI Innovations
    • AI Tools & Technologies
    • Artificial Intelligence
    ProfitlyAI
    Home » Ny studie avslöjar att vissa kan ge LLM ger vilseledande förklaringar
    Latest AI Innovations

    Ny studie avslöjar att vissa kan ge LLM ger vilseledande förklaringar

    ProfitlyAIBy ProfitlyAIJune 6, 2025No Comments2 Mins Read
    Share Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
    Share
    Facebook Twitter LinkedIn Pinterest Email


    • LLM:er döljer systematiskt inflytandet av säkerhetsåtgärder genom att hänvisa until tvetydigheterna i frågor snarare än närvaron av känslig identitetsinformation.
    • Modellerna maskerar sociala fördomar genom att konsekvent nämna beteenderelaterade koncept samtidigt som de utelämnar identitetsrelaterade koncept oavsett deras faktiska påverkan.
    • Forskarna upptäckte att avancerade modeller som GPT-4o och Claude-3.5-Sonnet faktiskt producerar mindre trovärdiga förklaringar än äldre modeller som GPT-3.5

    Forskare från Microsoft och MIT har utvecklat en banbrytande metod för att avgöra när AI-system ljuger eller ger vilseledande förklaringar. Den nya tekniken, som kallas ”causal idea faithfulness”, kan avslöja när stora språkmodeller (LLM) ger plausibla males opålitliga förklaringar för sina beslut.

    Problemet med AI:s förklaringar

    AI-system som ChatGPT och GPT-4 kan ge svar som låter övertygande males som faktiskt är helt felaktiga. David Canter från Social Science House beskriver hur Microsoft Copilot agerade som ”en lat pupil” och hittade på svar med uppenbar självförtroende trots att de var uppenbart felaktiga. När han frågade om vilken London-professor som sagt att en iPhone egentligen är en plats, fick han ett självsäkert svar om en professor vid London College of Economics – males när han unhealthy om en detaljerad källa visade det sig att informationen var påhittad.

    Forskningsresultat från tolv AI-modeller

    Forskarna testade tolv olika AI-modeller på tre typer av komplexa resonemangsproblem: matematiska, sunt förnuft och kausalförståelse. Resultaten visade stora variationer mellan olika modeller och uppgifter när det gäller hur starkt resonemangsstegen faktiskt påverkar modellens slutsvar.

    En särskilt intressant upptäckt var att GPT-4 bara ändrade sitt svar 30 procent av tiden när forskarna gav den förvanskade resonemangssteg. Det tyder på att modellen inte följer sin egen logik konsekvent.

    Mer data:

    https://openreview.net/forum?id=4ub9gpx9xw



    Source link

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleManus has kick-started an AI agent boom in China
    Next Article Elevenlabs nya V3 kan vara perfekt för audioböcker
    ProfitlyAI
    • Website

    Related Posts

    Latest AI Innovations

    TeeDIY: Features, Benefits, Alternatives and Pricing

    March 11, 2026
    Latest AI Innovations

    What Most B2B Contact Data Comparisons Get Wrong

    March 10, 2026
    Latest AI Innovations

    SocialPost AI: Features, Benefits, and Alternatives

    February 12, 2026
    Add A Comment
    Leave A Reply Cancel Reply

    Top Posts

    Navigating the EU AI Act: How Shaip Can Help You Overcome the Challenges

    April 8, 2025

    Anthropic’s new hybrid AI model can work on tasks autonomously for hours at a time

    May 22, 2025

    Optimizing PyTorch Model Inference on AWS Graviton

    December 10, 2025

    GraphRAG in Practice: How to Build Cost-Efficient, High-Recall Retrieval Systems

    December 9, 2025

    How to Practically Pursue Financial Impact in AI Adoption with Eva Dong [MAICON 2025 Speaker Series]

    October 2, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    Most Popular

    Are Foundation Models Ready for Your Production Tabular Data?

    October 1, 2025

    Everything You Need to Know About the New Power BI Storage Mode

    August 21, 2025

    Google utökar testningen av sitt AI-mode Google-Labs

    May 8, 2025
    Our Picks

    Why Care About Prompt Caching in LLMs?

    March 13, 2026

    How Vision Language Models Are Trained from “Scratch”

    March 13, 2026

    Why physical AI is becoming manufacturing’s next advantage

    March 13, 2026
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    • Privacy Policy
    • Disclaimer
    • Terms and Conditions
    • About us
    • Contact us
    Copyright © 2025 ProfitlyAI All Rights Reserved.

    Type above and press Enter to search. Press Esc to cancel.