Close Menu
    Trending
    • Creating AI that matters | MIT News
    • Scaling Recommender Transformers to a Billion Parameters
    • Hidden Gems in NumPy: 7 Functions Every Data Scientist Should Know
    • Is RAG Dead? The Rise of Context Engineering and Semantic Layers for Agentic AI
    • ChatGPT Gets More Personal. Is Society Ready for It?
    • Why the Future Is Human + Machine
    • Why AI Is Widening the Gap Between Top Talent and Everyone Else
    • Implementing the Fourier Transform Numerically in Python: A Step-by-Step Guide
    ProfitlyAI
    • Home
    • Latest News
    • AI Technology
    • Latest AI Innovations
    • AI Tools & Technologies
    • Artificial Intelligence
    ProfitlyAI
    Home » Samsungs lilla AI-modell TRM utmanar större LLM-modeller
    Latest AI Innovations

    Samsungs lilla AI-modell TRM utmanar större LLM-modeller

    ProfitlyAIBy ProfitlyAIOctober 9, 2025No Comments2 Mins Read
    Share Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
    Share
    Facebook Twitter LinkedIn Pinterest Email


    • TRM är en liten AI-modell med endast 7 miljoner parametrar som överträffar större språkmodeller på komplexa resoneringsuppgifter.
    • Modellen använder en rekursiv metod där nätverket iterativt förfinar sina svar genom upp until 16 upprepningar.
    • Modellen presterar märkbart bättre än stora språkmodeller som Deepseek R1 och Gemini 2,5 Professional på specifika uppgifter.
    • RM har potential för användning i resursbegränsade miljöer som robotik och personlig databehandling.

    Samsung forskare har utvecklat en ny öppen resonemangsmodell kallad TRM (Tiny Recursion Mannequin) som överträffar modeller som är 10 000 gånger större på specifika drawback. Modellen som bygger på rekursivt resonemang visar att små nätverk kan uppnå hög prestanda utan stora investeringar i GPU: och kraft.

    TRM är öppen källkod beneath en MIT-licens och är utformad för strukturerade, visuella och grid-baserade drawback vilket utmanar den dominerande filosofin att ”skala är allt som behövs” inom AI-forskningen.

    Med bara två lager i sitt neurala nätverk simulerar TRM en djupare arkitektur utan att belasta minnet eller kräva massiva beräkningsresurser. Den rekursiva cykeln körs upp until 16 gånger för varje uppgift, vilket gör att modellen kan göra allt mer exakta förutsägelser – lite som hur stora språkmodeller använder steg-för-steg-resonemang, quick här uppnås det med en smal, effektiv design.

    Träningskostnad beneath 500 greenback

    En annan fascinerande detalj är att träningen av TRM kostade beneath 500 greenback och tog bara två dagar på fyra H100-GPU:er. Det här står i skarp kontrast until de miljarder som spenderas på att träna de största språkmodellerna. Resultaten visar att genom att designa arkitekturer som kan resonera iterativt och själv-korrigera är det möjligt att lösa extremt svåra drawback med en bråkdel av beräkningsresurserna.

    Forskningspapperet och koden är öppet tillgängliga på GitHub för den som vill experimentera vidare. Det här kan öppna dörrar för mer forskning kring små, effektiva modeller som kan köras på enheter med begränsade resurser.

    Mer data:



    Source link

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleGoogle släpper Computer Use – AI:n som kan klicka och surfa åt dig
    Next Article How to Prepare Knowledge Workers for an AI-Powered Future with Paul Roetzer [MAICON 2025 Speaker Series]
    ProfitlyAI
    • Website

    Related Posts

    Latest AI Innovations

    51% av all internettrafik består nu av botar

    October 21, 2025
    Latest AI Innovations

    Ny forskning visar varför AI-bilder ser så konstiga ut

    October 21, 2025
    Latest AI Innovations

    ChatGPT får ny automatisk minnesfunktion

    October 20, 2025
    Add A Comment
    Leave A Reply Cancel Reply

    Top Posts

    Merging AI and underwater photography to reveal hidden ocean worlds | MIT News

    June 25, 2025

    Parquet File Format – Everything You Need to Know!

    May 14, 2025

    Opera Neon är världens första fullständigt agent-baserde webbläsare

    May 30, 2025

    Builder.ai kraschade när sanningen kom fram – AI-koden gjordes av indiska programmerare

    June 2, 2025

    Alibaba lanserar sin senaste flaggskepps-AI-modell Qwen 3

    April 29, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    Most Popular

    Unstructured data extraction made easy: A how-to guide

    September 5, 2025

    Google May Lose Chrome, And OpenAI’s First in Line to Grab It

    April 25, 2025

    Microsofts framtidsvision för internet: NLWeb med AI-chatbottar integrerade på alla webbplatser

    May 20, 2025
    Our Picks

    Creating AI that matters | MIT News

    October 21, 2025

    Scaling Recommender Transformers to a Billion Parameters

    October 21, 2025

    Hidden Gems in NumPy: 7 Functions Every Data Scientist Should Know

    October 21, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    • Privacy Policy
    • Disclaimer
    • Terms and Conditions
    • About us
    • Contact us
    Copyright © 2025 ProfitlyAI All Rights Reserved.

    Type above and press Enter to search. Press Esc to cancel.