AI-världen rör sig i en rasande takt och inom området för kodgenerering ser vi ständigt nya, spännande verktyg och modeller dyka upp. Ett av de senaste tillskotten som väcker uppmärksamhet är DeepCoder en ny AI-modell med 14 miljarder parametrar som släppts helt som öppen källkod. Det som gör DeepCoder additional intressant är påståendet att den presterar på ”O3-Mini-nivå”, vilket signalerar en hög kompetens inom kodningsuppgifter.
Mannequin | LCB (Move@1) (8/1/24-2/1/25) | Codeforces Ranking | Codeforces Percentile |
---|---|---|---|
DeepCoder-14B-Preview | 60.6 | 1936 | 95.3 |
DeepSeek-R1-Distill-Qwen-14B | 53.0 | 1791 | 92.7 |
O3-Mini-2025-1-31 (Low) | 60.9 | 1918 | 94.9 |
O1-2024-12-17 (Low) | 59.5 | 1991 | 96.1 |
Det som verkligen får DeepCoder att sticka ut är dess prestanda. Enligt utvecklarna på DeepSeek AI och de tester som gjorts by way of plattformar som Collectively AI presterar DeepCoder på en nivå som är jämförbar med OpenAI:s erkänt duktiga, males stängda O3-Mini-modell. Att en modell med ”endast” 14 miljarder parametrar kan nå denna nivå är imponerande och visar på den snabba utvecklingen inom specialiserade AI-modeller.
Modellen har visat framfötterna i flera standardiserade tester (benchmarks) som mäter förmågan att lösa programmeringsproblem, komplettera kod och följa instruktioner. Detta innebär att den inte bara är en teoretisk bedrift, utan ett praktiskt verktyg som utvecklare faktiskt kan dra nytta av.
Nyckeln until framgången ligger troligtvis i den högkvalitativa information och de specifika träningstekniker som DeepSeek AI använt sig av – finjusterad från Deepseek-R1-Distilled-Qwen-14B. De har fokuserat på att skapa en modell som är ”skilled” inom kodningens domän.
För mer info och för att följa uppdateringar kan du kolla in de officiella inläggen här och projektets GitHub-förråd här.