
Fremtiden for AGI og analyse af lovende virksomheder: Fra NVIDIA-chips til xAI Grok-3
Fremtidsudsigter for AGI og analyse af nøglevirksomheder
AGI (Artificial General Intelligence, generel kunstig intelligens) henviser til den type intelligens, der kan udføre alle intellektuelle opgaver på samme niveau som, eller endda over, et menneske. For nylig er interessen for AGI steget markant med fremkomsten af værktøjer som ChatGPT, og en række globale virksomheder er begyndt at konkurrere om at nå AGI. Denne analyserapport undersøger fremtidsudsigterne for AGI, præsenterer de vigtigste virksomheder, der driver udviklingen, diskuterer de mest lovende aktører fra et langsigtet investeringsperspektiv og belyser de enorme beregningsressourcer (GPU’er), der er nødvendige for at implementere AGI.
Førende virksomheder inden for AGI-udvikling
Følgende virksomheder anses allerede for at være førende eller forventes at få stor indflydelse i konkurrencen om AGI:
OpenAI
OpenAI er central i populariseringen af begrebet AGI. Deres mission er formuleret som at udvikle AGI til gavn for hele menneskeheden. Gennem succesfulde lanceringer af store sprogmodeller som GPT-3 og GPT-4 har de taget et vigtigt skridt mod at realisere AGI. Med støtte fra Microsoft har de opbygget en specialiseret supercomputer til AI, hvor over 10.000 NVIDIA A100 GPU’er blev brugt til at træne GPT-4 – og for den næste model, GPT-5, planlægges en opskalering til omkring 25.000 GPU’er. OpenAI baserer sit mål om at opnå en sikker og kontrollerbar AGI på disse enorme beregningsressourcer.
Google DeepMind
DeepMind, kendt for sin Go-spillende AI AlphaGo, er nu en del af Google og opererer under navnet Google DeepMind. CEO Demis Hassabis har præsenteret en køreplan for at opnå AGI inden for de næste 10 år, hvor han understreger vigtigheden af trinvis fremgang frem for overdreven optimisme. Især fokuseres der på multimodal AI – modeller, der ikke kun forstår tekst, men også billeder, lyd og video – med udviklingen af den kommende model “Gemini”. Google DeepMind har også lanceret Bard, en konkurrent til OpenAI’s modeller, og med få yderligere innovationer kan de potentielt nå menneskelignende intelligens. Google investerer aggressivt i sin infrastruktur med egne TPU’er og store mængder NVIDIA GPU’er samt strategiske investeringer i konkurrenter som Anthropic.
xAI
Det nystartede firma xAI, grundlagt af Elon Musk (CEO for Tesla og SpaceX) i 2023, fremstår som en underdog i AGI-konkurrencen. Som tidligere medstifter af OpenAI har Musk valgt sin egen vej. xAI præsenterede for nylig chatbotten “Grok”, tilknyttet X (tidligere Twitter), der har fået opmærksomhed for sine hurtige, tidsmæssige svar og humoristiske stil. Musk promoverer nu firmaets nyeste model, Grok-3, med påstanden om, at den overgår de nyeste modeller fra konkurrenterne. Han oplyser, at over 100.000 NVIDIA H100 GPU’er vil blive brugt til at træne Grok-3 – fem gange så mange som for Grok-2. Med en enkelt H100 til en pris på omkring 30.000–40.000 dollars er investeringerne enorme, hvilket tyder på, at Grok-3, planlagt til lancering ved årets udgang, kan blive noget helt særligt. xAI tester allerede internt Grok-1.5 og planlægger lancering af Grok-2 i august 2024 og Grok-3 senere samme år. Med Musks aggressive investeringer og hurtige udviklingscyklus er det ikke usandsynligt, at xAI snart vil gøre sig bemærket i AGI-konkurrencen.
Anthropic
Anthropic er et AI-startup grundlagt af tidligere medarbejdere fra OpenAI, der fokuserer på AI-sikkerhed og udvikler næste generations store sprogmodeller. Firmaet har lanceret Claude-serien, en konkurrent til ChatGPT, og har tiltrukket betydelige investeringer fra Google. Målet er at udvikle en ny model med kodenavnet “Claude-Next”, som forventes at være ti gange kraftigere end GPT-4. For at opnå dette planlægger Anthropic at investere over 5 milliarder dollars (ca. 6 billioner KRW) i løbet af de næste 2–4 år for at træne en enorm model. På trods af de høje ambitioner og modellens potentiale som en “guddommelig gamechanger” har firmaet allerede implementeret sine modeller kommercielt og sigter mod at blive en førende aktør i AGI-æraen ved at balancere sikkerhed og ydeevne.
Microsoft
Microsoft spiller en afgørende rolle, ikke kun som udvikler, men især som støttende partner og bruger. Efter at have investeret 1 milliard dollars i OpenAI i 2019 har de forpligtet sig til at investere op til 10 milliarder dollars i de kommende år i tæt samarbejde med OpenAI. Som hardwarepartner leverer Microsoft Azure den nødvendige cloudinfrastruktur til AI-udvikling. Microsoft råder allerede over en supercomputer med over 10.000 GPU’er til træning af GPT-4, og de planlægger at forberede et cluster med over 25.000 GPU’er til fremtidige modeller, samtidig med at de overvejer at udvikle deres egne AI-chips. Derudover integrerer Microsoft hurtigt AI i sine produkter – fra Bing og Office 365 til Windows – hvilket gør dem til en central aktør i udrulningen af AGI.
Meta (Facebook)
Meta er en anden stor aktør, primært kendt for sine massive investeringer i AI-infrastruktur. Selvom Meta ikke officielt har sat AGI som mål, er deres engagement i AI-forskning og -infrastruktur uomtvisteligt. Gennem lanceringen af store sprogmodeller som LLaMA har Meta skabt stor opmærksomhed både i akademia og industrien, og de investerer også i billedgenererende AI (f.eks. Imagen) og multimodal AI. Meta planlægger at sikre over 350.000 NVIDIA H100 GPU’er og i alt 600.000 AI-chips inden 2024, hvilket kan blive den største AI-regnekraft, der nogensinde er set. Disse investeringer gør Meta til en stærk aktør, især hvis de formår at integrere AGI-lignende modeller i deres sociale medie- og metaverse-platforme.
(Andre aktører som Baidu og Alibaba nævnes også, men denne rapport fokuserer primært på amerikanske eksempler.)
Lovende investeringsmuligheder i AGI-æraen (langsigtet perspektiv)
Udviklingen af AGI påvirker ikke kun forskningsinstitutioner og softwarevirksomheder, men har omfattende effekter på hele industrien, herunder hardware, halvledere og cloudtjenester. Ud fra et langsigtet investeringsperspektiv nævnes følgende virksomheder ofte som potentielle vindere i AGI-æraen:
- Nvidia:
En førende virksomhed inden for GPU-design og den største modtager af ChatGPT-boomet. Næsten alle virksomheder, inklusive OpenAI, Google og Meta, er afhængige af Nvidias A100/H100 GPU’er for at træne deres avancerede modeller. På trods af høje priser (30.000–40.000 dollars pr. H100) er efterspørgslen eksploderet, hvilket har ført til rekordindtægter for AI-chips til datacentre. - AMD:
Som Nvidias primære konkurrent på GPU-markedet vokser AMD gennem udviklingen af deres MI300-serie og AI-acceleratorer. Med planer om at købe AMD Instinct GPU’er i store mængder fra Google, er markedet overbevist om, at en pålidelig levering af GPU’er – uanset mærket – er afgørende. - TSMC:
Verdens største foundry producerer avancerede AI-chips såsom NVIDIA H100, AMD MI300 og Googles TPU. Den stigende efterspørgsel efter AI-chips driver TSMCs produktionskapacitet og indtægter, hvilket gør virksomheden til en central aktør inden for AI-halvlederteknologi. - Microsoft:
Som en tæt partner til OpenAI og med deres egen Azure-cloudplatform forventes Microsoft at drage stor fordel af den globale overgang til AI. Deres hurtige integration af AI i produkter som Bing, Office og Windows giver dem en strategisk fordel. - Google:
Google ejer et massivt økosystem, der omfatter søgetjenester, cloudtjenester og mobile platforme. Gennem Google DeepMind og andre initiativer investerer de i udviklingen af egne AGI-teknologier, hvilket potentielt kan omdefinere indtægtsmodellerne inden for søgning og reklame. - Meta:
Med aggressive investeringer i AI-forskning og infrastruktur positionerer Meta sig som en potentiel vinder i den fremtidige AI-æra, selvom deres AGI-mål er mindre klart defineret.
Beregnet regnekraft for AGI (GPU-skalaanalyse)
For at udvikle AGI kræves enorm regnekraft. For eksempel blev omkring 20.000 NVIDIA GPU’er brugt til at træne GPT-4 over 90–100 dage, hvilket resulterede i ca. 2,15×10^25 operationer og en præstation tæt på den menneskelige sprogkompetence. Fremtidige modeller som Grok forventes at kræve endnu større mængder beregningsressourcer:
- OpenAI GPT-3: Det anslås, at tusindvis af NVIDIA V100 GPU’er blev brugt (ca. 36,4 millioner GPU-timer).
- OpenAI GPT-4: Benyttede titusinder af NVIDIA A100 GPU’er.
- xAI Grok-2: Forventes at bruge omkring 20.000 NVIDIA H100 GPU’er (forventet færdiggørelse: maj 2024).
- xAI Grok-3: Planlægges at bruge over 100.000 NVIDIA H100 GPU’er (mål: slutningen af 2024).
- Meta AI Research SuperCluster: Planlægger at sikre op til 350.000 NVIDIA H100 GPU’er.
- Anthropic Claude-Next: Det anslås, at hundredtusinder af GPU’er vil være nødvendige for at opnå ti gange ydeevnen sammenlignet med GPT-4.
- Google DeepMind Gemini: Bruger en kombination af egne TPU’er (i tusinder) og yderligere NVIDIA GPU’er (de nøjagtige tal er fortrolige).
Disse tal viser, at træning af avancerede AI-modeller kræver beregningsressourcer i stor skala – fra titusinder til potentielt over en million GPU’er i fremtiden. Dette kræver ikke kun enorme investeringer i hardware, men også betydelig infrastruktur i form af strømforsyning, datacenterplads og netværksstabilitet. I sidste ende er kampen om at sikre denne regnekraft central for at opnå AGI, hvilket er grunden til, at de førende virksomheder aggressivt udvider deres supercomputere og GPU-reserver.
Kilder:
- OpenAI, “Planning for AGI and beyond” (2023)
- Nextplatform, “Microsoft is said to have used 10,000 Nvidia A100 GPUs to train GPT-4…” (2023)
- Geeky Gadgets, “Demis Hassabis… achieving AGI within the next decade” (2023)
- Reddit (sammenfattet fra TechCrunch), “Anthropic’s plan… raise $5B… build ‘Claude-Next’ 10 times more capable than GPT-4.” (2023)
- Business Insider, “Elon Musk: Grok 3 will train on 100,000 Nvidia H100 GPUs” (2024)
- TweakTown, “Grok 2 used ~20,000 H100 GPUs, Grok 3 will require 100,000 H100 GPUs” (2024)
- SemiAnalysis, “OpenAI’s GPT-4 used ~20k A100s for 90-100 days (2.15e25 FLOPs)” (2024)
- AI Tech Report, “Microsoft & OpenAI Project Stargate – $100B AI Supercomputer by 2028” (2024)
**#AGI