Close Menu
    Trending
    • Three OpenClaw Mistakes to Avoid and How to Fix Them
    • I Stole a Wall Street Trick to Solve a Google Trends Data Problem
    • How AI is turning the Iran conflict into theater
    • Why Your AI Search Evaluation Is Probably Wrong (And How to Fix It)
    • Machine Learning at Scale: Managing More Than One Model in Production
    • Improving AI models’ ability to explain their predictions | MIT News
    • Write C Code Without Learning C: The Magic of PythoC
    • LatentVLA: Latent Reasoning Models for Autonomous Driving
    ProfitlyAI
    • Home
    • Latest News
    • AI Technology
    • Latest AI Innovations
    • AI Tools & Technologies
    • Artificial Intelligence
    ProfitlyAI
    Home » Samsungs lilla AI-modell TRM utmanar större LLM-modeller
    Latest AI Innovations

    Samsungs lilla AI-modell TRM utmanar större LLM-modeller

    ProfitlyAIBy ProfitlyAIOctober 9, 2025No Comments2 Mins Read
    Share Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
    Share
    Facebook Twitter LinkedIn Pinterest Email


    • TRM är en liten AI-modell med endast 7 miljoner parametrar som överträffar större språkmodeller på komplexa resoneringsuppgifter.
    • Modellen använder en rekursiv metod där nätverket iterativt förfinar sina svar genom upp until 16 upprepningar.
    • Modellen presterar märkbart bättre än stora språkmodeller som Deepseek R1 och Gemini 2,5 Professional på specifika uppgifter.
    • RM har potential för användning i resursbegränsade miljöer som robotik och personlig databehandling.

    Samsung forskare har utvecklat en ny öppen resonemangsmodell kallad TRM (Tiny Recursion Mannequin) som överträffar modeller som är 10 000 gånger större på specifika drawback. Modellen som bygger på rekursivt resonemang visar att små nätverk kan uppnå hög prestanda utan stora investeringar i GPU: och kraft.

    TRM är öppen källkod beneath en MIT-licens och är utformad för strukturerade, visuella och grid-baserade drawback vilket utmanar den dominerande filosofin att ”skala är allt som behövs” inom AI-forskningen.

    Med bara två lager i sitt neurala nätverk simulerar TRM en djupare arkitektur utan att belasta minnet eller kräva massiva beräkningsresurser. Den rekursiva cykeln körs upp until 16 gånger för varje uppgift, vilket gör att modellen kan göra allt mer exakta förutsägelser – lite som hur stora språkmodeller använder steg-för-steg-resonemang, quick här uppnås det med en smal, effektiv design.

    Träningskostnad beneath 500 greenback

    En annan fascinerande detalj är att träningen av TRM kostade beneath 500 greenback och tog bara två dagar på fyra H100-GPU:er. Det här står i skarp kontrast until de miljarder som spenderas på att träna de största språkmodellerna. Resultaten visar att genom att designa arkitekturer som kan resonera iterativt och själv-korrigera är det möjligt att lösa extremt svåra drawback med en bråkdel av beräkningsresurserna.

    Forskningspapperet och koden är öppet tillgängliga på GitHub för den som vill experimentera vidare. Det här kan öppna dörrar för mer forskning kring små, effektiva modeller som kan köras på enheter med begränsade resurser.

    Mer data:



    Source link

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleGoogle släpper Computer Use – AI:n som kan klicka och surfa åt dig
    Next Article How to Prepare Knowledge Workers for an AI-Powered Future with Paul Roetzer [MAICON 2025 Speaker Series]
    ProfitlyAI
    • Website

    Related Posts

    Latest AI Innovations

    SocialPost AI: Features, Benefits, and Alternatives

    February 12, 2026
    Latest AI Innovations

    Seedance 2.0: Features, Benefits, and Alternatives

    February 11, 2026
    Latest AI Innovations

    AI Angels: Features, Benefits, Pricing and Alternatives

    February 7, 2026
    Add A Comment
    Leave A Reply Cancel Reply

    Top Posts

    How to Maximize Claude Code Effectiveness

    January 13, 2026

    How to extract data from contracts: A practical guide

    September 5, 2025

    Making AI models more trustworthy for high-stakes settings | MIT News

    May 1, 2025

    What Happens When You Build an LLM Using Only 1s and 0s

    December 22, 2025

    Amazon CEO’s New Memo Signals a Brutal Truth: More AI, Fewer Humans

    June 24, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    Most Popular

    ChatGPT får långtidsminne – kommer nu ihåg alla dina konversationer

    April 13, 2025

    Shopify’s CEO Just Issued a Bold AI Ultimatum to His Entire Team

    April 15, 2025

    4 Levels of GitHub Actions: A Guide to Data Workflow Automation

    April 4, 2025
    Our Picks

    Three OpenClaw Mistakes to Avoid and How to Fix Them

    March 9, 2026

    I Stole a Wall Street Trick to Solve a Google Trends Data Problem

    March 9, 2026

    How AI is turning the Iran conflict into theater

    March 9, 2026
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    • Privacy Policy
    • Disclaimer
    • Terms and Conditions
    • About us
    • Contact us
    Copyright © 2025 ProfitlyAI All Rights Reserved.

    Type above and press Enter to search. Press Esc to cancel.