Close Menu
    Trending
    • Why Should We Bother with Quantum Computing in ML?
    • Federated Learning and Custom Aggregation Schemes
    • How To Choose The Perfect AI Tool In 2025 » Ofemwire
    • Implementing DRIFT Search with Neo4j and LlamaIndex
    • Agentic AI in Finance: Opportunities and Challenges for Indonesia
    • Dispatch: Partying at one of Africa’s largest AI gatherings
    • Topp 10 AI-filmer genom tiderna
    • OpenAIs nya webbläsare ChatGPT Atlas
    ProfitlyAI
    • Home
    • Latest News
    • AI Technology
    • Latest AI Innovations
    • AI Tools & Technologies
    • Artificial Intelligence
    ProfitlyAI
    Home » Samsungs lilla AI-modell TRM utmanar större LLM-modeller
    Latest AI Innovations

    Samsungs lilla AI-modell TRM utmanar större LLM-modeller

    ProfitlyAIBy ProfitlyAIOctober 9, 2025No Comments2 Mins Read
    Share Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
    Share
    Facebook Twitter LinkedIn Pinterest Email


    • TRM är en liten AI-modell med endast 7 miljoner parametrar som överträffar större språkmodeller på komplexa resoneringsuppgifter.
    • Modellen använder en rekursiv metod där nätverket iterativt förfinar sina svar genom upp until 16 upprepningar.
    • Modellen presterar märkbart bättre än stora språkmodeller som Deepseek R1 och Gemini 2,5 Professional på specifika uppgifter.
    • RM har potential för användning i resursbegränsade miljöer som robotik och personlig databehandling.

    Samsung forskare har utvecklat en ny öppen resonemangsmodell kallad TRM (Tiny Recursion Mannequin) som överträffar modeller som är 10 000 gånger större på specifika drawback. Modellen som bygger på rekursivt resonemang visar att små nätverk kan uppnå hög prestanda utan stora investeringar i GPU: och kraft.

    TRM är öppen källkod beneath en MIT-licens och är utformad för strukturerade, visuella och grid-baserade drawback vilket utmanar den dominerande filosofin att ”skala är allt som behövs” inom AI-forskningen.

    Med bara två lager i sitt neurala nätverk simulerar TRM en djupare arkitektur utan att belasta minnet eller kräva massiva beräkningsresurser. Den rekursiva cykeln körs upp until 16 gånger för varje uppgift, vilket gör att modellen kan göra allt mer exakta förutsägelser – lite som hur stora språkmodeller använder steg-för-steg-resonemang, quick här uppnås det med en smal, effektiv design.

    Träningskostnad beneath 500 greenback

    En annan fascinerande detalj är att träningen av TRM kostade beneath 500 greenback och tog bara två dagar på fyra H100-GPU:er. Det här står i skarp kontrast until de miljarder som spenderas på att träna de största språkmodellerna. Resultaten visar att genom att designa arkitekturer som kan resonera iterativt och själv-korrigera är det möjligt att lösa extremt svåra drawback med en bråkdel av beräkningsresurserna.

    Forskningspapperet och koden är öppet tillgängliga på GitHub för den som vill experimentera vidare. Det här kan öppna dörrar för mer forskning kring små, effektiva modeller som kan köras på enheter med begränsade resurser.

    Mer data:



    Source link

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleGoogle släpper Computer Use – AI:n som kan klicka och surfa åt dig
    Next Article How to Prepare Knowledge Workers for an AI-Powered Future with Paul Roetzer [MAICON 2025 Speaker Series]
    ProfitlyAI
    • Website

    Related Posts

    Latest AI Innovations

    Topp 10 AI-filmer genom tiderna

    October 22, 2025
    Latest AI Innovations

    OpenAIs nya webbläsare ChatGPT Atlas

    October 22, 2025
    Latest AI Innovations

    51% av all internettrafik består nu av botar

    October 21, 2025
    Add A Comment
    Leave A Reply Cancel Reply

    Top Posts

    Culturally Inclusive AI: Pioneering Global Understanding Through LLMs

    April 9, 2025

    How to Use DeepSeek-R1 for AI Applications

    April 5, 2025

    3 Steps to Context Engineering a Crystal-Clear Project

    July 16, 2025

    Implementing the Fourier Transform Numerically in Python: A Step-by-Step Guide

    October 21, 2025

    LLM Optimization: LoRA and QLoRA | Towards Data Science

    May 30, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    Most Popular

    From Amnesia to Awareness: Giving Retrieval-Only Chatbots Memory

    September 18, 2025

    The Complete Guide to Modern Document Processing

    September 3, 2025

    Creating a common language | MIT News

    April 5, 2025
    Our Picks

    Why Should We Bother with Quantum Computing in ML?

    October 22, 2025

    Federated Learning and Custom Aggregation Schemes

    October 22, 2025

    How To Choose The Perfect AI Tool In 2025 » Ofemwire

    October 22, 2025
    Categories
    • AI Technology
    • AI Tools & Technologies
    • Artificial Intelligence
    • Latest AI Innovations
    • Latest News
    • Privacy Policy
    • Disclaimer
    • Terms and Conditions
    • About us
    • Contact us
    Copyright © 2025 ProfitlyAI All Rights Reserved.

    Type above and press Enter to search. Press Esc to cancel.