- Tidsram för AGI: DeepMind förutspår att AGI kan uppstå innan decenniet är slut (2030).
- Definition av AGI: Enligt rapporten är AGI ett system som kan matcha minst 99:e percentilen av skickliga vuxna på ett brett spektra av icke-fysiska uppgifter, inklusive metakognitiva uppgifter som att lära sig nya färdigheter.
- Potentiella risker: Rapporten varnar för möjligheten until ”svår skada” och ”existensiella risker” som potentiellt kan everlasting förstöra mänskligheten.
DeepMind har nyligen publicerat en omfattande 145-sidig rapport angående säkerhetsstrategier för artificiell generell intelligens (AGI). Rapporten, som är co-skriven av DeepMinds medgrundare Shane Legg, presenterar en rad strategiska insikter och rekommendationer för att hantera potentiella risker och fördelar med AGI, där man förutspår att AGI kan vara verklighet innan 2030
Rapportens Huvudsakliga Innehåll
Rapporten diskuterar grundligt de tekniska chokeringarna kopplade until AGI och hur dessa system måste utvecklas för att garantera säkerhet och ansvar. Den klassificerar riskerna i fyra huvudområden: Risker som uppstår genom interaktionerna mellan AI-system utan att något enskilt system kan hållas ansvarig. Medveten missbruk av människor – Risker när AI används i skadliga syften. Felaktig inriktning när AI handlar på sätt som inte förutsågs av dess programmerare.
ämförelse med andra aktörer
Method | DeepMind | Anthropic | OpenAI |
---|---|---|---|
Strong träning, övervakning och säkerhet | Hög | Lägre | – |
Automatisering av alignmentsforskning | Skeptisk | – | Optimistisk |
Närstående superintelligens | Tvivlande | – | Fokus skiftat från AGI |
Trots att rapporten erbjuder en grundlig vägledning, finns det skeptiska röster inom forskarsamhället. Kritik har riktats mot att begreppet AGI är för vagt för att rigoröst kunna utvärderas vetenskapligt, och att fenomenet ”rekursiv AI-förbättring”, där AI-system förbättrar sig själva, har ifrågasatts av forskare som menar att det saknas bevis för att detta skulle kunna fungera.