Fremtiden for AGI og analyse av lovende selskaper: Fra NVIDIA-brikker til xAI Grok-3

Fremtiden for AGI og analyse av lovende selskaper: Fra NVIDIA-brikker til xAI Grok-3

Fremtidsutsikter for AGI og analyse av nøkkelselskaper

AGI (Artificial General Intelligence, generell kunstig intelligens) refererer til den typen intelligens som kan utføre alle intellektuelle oppgaver på et nivå som er likt eller overgår et menneskes. I det siste har interessen for AGI økt kraftig med fremveksten av verktøy som ChatGPT, og en rekke globale selskaper har begynt å konkurrere om å oppnå AGI. Denne analyserapporten undersøker fremtidsutsiktene for AGI, presenterer de viktigste selskapene som leder utviklingen, diskuterer de mest lovende aktørene fra et langsiktig investeringsperspektiv, og ser på de enorme beregningsressursene (GPU-er) som kreves for å implementere AGI.

Fremtredende selskaper innen AGI-utvikling

Følgende selskaper regnes allerede som ledende eller forventes å få stor påvirkning i konkurransen om AGI:

OpenAI
OpenAI står sentralt i populariseringen av begrepet AGI. Deres oppdrag er formulert som å utvikle AGI til gagn for hele menneskeheten. Gjennom vellykkede lanseringer av storskala språkmodeller som GPT-3 og GPT-4 har de tatt et viktig skritt mot realiseringen av AGI. Med støtte fra Microsoft har de bygget en spesialisert superdatamaskin for AI, hvor over 10 000 NVIDIA A100 GPU-er ble brukt for å trene GPT-4 – og for neste modell, GPT-5, planlegges en oppskalering til omtrent 25 000 GPU-er. OpenAI baserer sitt mål om å oppnå en sikker og kontrollerbar AGI på disse enorme beregningsressursene.

Google DeepMind
DeepMind, kjent for sin Go-spillende AI AlphaGo, er nå en del av Google og opererer under navnet Google DeepMind. Administrerende direktør Demis Hassabis har presentert en veikart for å nå AGI innen de neste 10 årene, og han understreker viktigheten av gradvise fremskritt fremfor overdreven optimisme. Det legges særlig vekt på multimodal AI – modeller som ikke bare forstår tekst, men også bilder, lyd og video – med utviklingen av den kommende modellen «Gemini». Google DeepMind har også lansert Bard, en konkurrent til OpenAI-modellene, og med noen få ytterligere innovasjoner kan de potensielt oppnå et nivå som tilsvarer menneskelig intelligens. Google investerer aggressivt i sin infrastruktur med egne TPU-er og store mengder NVIDIA GPU-er, samt strategiske investeringer i konkurrenter som Anthropic.

xAI
Det nystiftede selskapet xAI, grunnlagt av Elon Musk (administrerende direktør for Tesla og SpaceX) i 2023, fremstår som en underdog i konkurransen om AGI. Som tidligere medgründer av OpenAI har Musk valgt å gå sin egen vei. xAI presenterte nylig chatboten «Grok», tilknyttet X (tidligere Twitter), som har fått oppmerksomhet for sine raske, tidsriktige svar og en humoristisk stil. Musk promoterer nå selskapets nyeste modell, Grok-3, med påstanden om at den overgår de aller nyeste modellene fra konkurrentene. Han oppgir at over 100 000 NVIDIA H100 GPU-er vil bli brukt for å trene Grok-3 – fem ganger så mange som for Grok-2. Med en enkelt H100 som koster omtrent 30 000–40 000 dollar, er investeringene enorme, noe som tyder på at Grok-3, planlagt lansert mot slutten av året, kan bli noe helt spesielt. xAI tester allerede internt Grok-1.5 og planlegger lansering av Grok-2 i august 2024, etterfulgt av Grok-3 senere samme år. Med Musks aggressive investeringer og raske utviklingssyklus er det ikke usannsynlig at xAI snart vil markere seg tydelig i AGI-konkurransen.

Anthropic
Anthropic er en AI-startup grunnlagt av tidligere ansatte fra OpenAI, med fokus på AI-sikkerhet og utvikling av neste generasjon store språkmodeller. Selskapet har lansert Claude-serien, en konkurrent til ChatGPT, og har tiltrukket betydelige investeringer fra Google. Målet er å utvikle en ny modell med kodenavnet «Claude-Next», som forventes å være ti ganger kraftigere enn GPT-4. For å oppnå dette planlegger Anthropic å investere over 5 milliarder dollar (ca. 6 billioner KRW) i løpet av de neste 2–4 årene for å trene en enorm modell. Til tross for de høye ambisjonene og modellens potensiale som en «guddommelig gamechanger», har selskapet allerede tatt sine modeller i bruk kommersielt og sikter mot å bli en ledende aktør i AGI-æraen ved å balansere sikkerhet og ytelse.

Microsoft
Microsoft spiller en avgjørende rolle, ikke bare som utvikler, men først og fremst som en støttespiller og bruker. Etter å ha investert 1 milliard dollar i OpenAI i 2019, har de forpliktet seg til å investere opptil 10 milliarder dollar i de kommende årene i tett samarbeid med OpenAI. Som en maskinvarepartner leverer Microsoft Azure den nødvendige skyinfrastrukturen for AI-utviklingen. Microsoft har allerede en superdatamaskin med over 10 000 GPU-er for å trene GPT-4, og de planlegger å forberede et cluster med over 25 000 GPU-er for fremtidige modeller, samtidig som de vurderer å utvikle sine egne AI-brikker. I tillegg integrerer Microsoft raskt AI i sine produkter – fra Bing og Office 365 til Windows – noe som gjør dem til en sentral aktør i lanseringen av AGI.

Meta (Facebook)
Meta er en annen stor aktør, kjent for sine massive investeringer i AI-infrastruktur. Selv om Meta ikke offisielt har definert AGI som sitt mål, er deres engasjement innen AI-forskning og -infrastruktur udiskutabelt. Gjennom lanseringen av store språkmodeller som LLaMA har Meta skapt stor oppmerksomhet både i akademia og industrien, og de investerer også i bildegenererende AI (f.eks. Imagen) og multimodal AI. Meta planlegger å sikre over 350 000 NVIDIA H100 GPU-er og totalt 600 000 AI-brikker innen 2024, noe som kan bli den største AI-regnekraften noensinne. Disse investeringene gjør Meta til en sterk aktør, spesielt hvis de klarer å integrere AGI-lignende modeller i sine plattformer for sosiale medier og metaverset.

(Ytterligere aktører som Baidu og Alibaba nevnes også, men denne rapporten fokuserer hovedsakelig på amerikanske eksempler.)

Lovende investeringsmuligheter i AGI-æraen (langsiktig perspektiv)

Utviklingen av AGI påvirker ikke bare forskningsinstitusjoner og programvareselskaper, men har vidtrekkende effekter på hele industrien, inkludert maskinvare, halvledere og skybaserte tjenester. Fra et langsiktig investeringsperspektiv blir følgende selskaper ofte nevnt som potensielle vinnere i AGI-æraen:

  • Nvidia:
    Et ledende selskap innen GPU-design og den største mottakeren av ChatGPT-boomen. Nesten alle selskaper, inkludert OpenAI, Google og Meta, er avhengige av Nvidias A100/H100 GPU-er for å trene sine avanserte modeller. Til tross for høye priser (30 000–40 000 dollar per H100) har etterspørselen eksplodert, noe som har ført til rekordomsetning for AI-brikker til datasentre.
  • AMD:
    Som Nvidias hovedkonkurrent i GPU-markedet vokser AMD gjennom utviklingen av sine MI300-serier og AI-akseleratorer. Med planer om å kjøpe GPU-er fra AMDs Instinct-serie i store mengder fra Google, er markedet overbevist om at en pålitelig levering av GPU-er – uavhengig av merke – er avgjørende.
  • TSMC:
    Verdens største foundry produserer avanserte AI-brikker som NVIDIA H100, AMD MI300 og Googles TPU. Økt etterspørsel etter AI-brikker driver opp TSMCs produksjonskapasitet og inntekter, noe som gjør selskapet til en sentral aktør innen AI-halvlederteknologi.
  • Microsoft:
    Som en tett partner til OpenAI og med sin egen Azure-skyplattform, forventes Microsoft å dra stor nytte av den globale overgangen til AI. Deres raske integrering av AI i produkter som Bing, Office og Windows gir dem en strategisk fordel.
  • Google:
    Google eier et massivt økosystem som omfatter søketjenester, skyløsninger og mobile plattformer. Gjennom Google DeepMind og andre initiativer investerer de i utviklingen av egne AGI-teknologier, noe som potensielt kan omdefinere inntektsmodellene innen søk og reklame.
  • Meta:
    Med aggressive investeringer i AI-forskning og infrastruktur posisjonerer Meta seg som en potensiell vinner i den fremtidige AI-æraen, selv om deres mål for AGI er mindre klart definert.

Beregnet regnekraft for AGI (GPU-skalaanalyse)

For å utvikle AGI kreves enorm regnekraft. For eksempel ble rundt 20 000 NVIDIA GPU-er brukt til å trene GPT-4 over 90–100 dager, noe som resulterte i omtrent 2,15×10^25 operasjoner og en ytelse nær menneskelig språkkompetanse. Fremtidige modeller, som Grok, forventes å kreve enda større mengder beregningsressurser:

  • OpenAI GPT-3: Det anslås at tusenvis av NVIDIA V100 GPU-er ble brukt (omtrent 36,4 millioner GPU-timer).
  • OpenAI GPT-4: Benyttet titusenvis av NVIDIA A100 GPU-er.
  • xAI Grok-2: Er planlagt å bruke omtrent 20 000 NVIDIA H100 GPU-er (forventet ferdigstillelse: mai 2024).
  • xAI Grok-3: Er planlagt å bruke over 100 000 NVIDIA H100 GPU-er (mål: slutten av 2024).
  • Meta AI Research SuperCluster: Planlegger å sikre opptil 350 000 NVIDIA H100 GPU-er.
  • Anthropic Claude-Next: Det anslås at hundretusenvis av GPU-er vil være nødvendig for å oppnå en ytelse ti ganger høyere enn GPT-4.
  • Google DeepMind Gemini: Bruker en kombinasjon av egne TPU-er (i tusenvis) og ytterligere NVIDIA GPU-er (nøyaktige tall er konfidensielle).

Disse tallene viser at trening av avanserte AI-modeller krever beregningsressurser i stor skala – fra titusenvis til potensielt over en million GPU-er i fremtiden. Dette krever ikke bare enorme investeringer i maskinvare, men også betydelig infrastruktur i form av strømforsyning, datasenterplass og nettverksstabilitet. Til syvende og sist er konkurransen om å sikre denne regnekraften avgjørende for å oppnå AGI, noe som er grunnen til at ledende selskaper aggressivt utvider sine superdatamaskiner og GPU-reserver.

Kilder:

  1. OpenAI, “Planning for AGI and beyond” (2023)
  2. Nextplatform, “Microsoft is said to have used 10,000 Nvidia A100 GPUs to train GPT-4…” (2023)
  3. Geeky Gadgets, “Demis Hassabis… achieving AGI within the next decade” (2023)
  4. Reddit (sammendrag fra TechCrunch), “Anthropic’s plan… raise $5B… build ‘Claude-Next’ 10 times more capable than GPT-4.” (2023)
  5. Business Insider, “Elon Musk: Grok 3 will train on 100,000 Nvidia H100 GPUs” (2024)
  6. TweakTown, “Grok 2 used ~20,000 H100 GPUs, Grok 3 will require 100,000 H100 GPUs” (2024)
  7. SemiAnalysis, “OpenAI’s GPT-4 used ~20k A100s for 90-100 days (2.15e25 FLOPs)” (2024)
  8. AI Tech Report, “Microsoft & OpenAI Project Stargate – $100B AI Supercomputer by 2028” (2024)

**#AGI

KunstigIntelligens

GenerellIntelligens

AIInvestering

NVIDIA

OpenAI

xAI

Grok3

Fremtidsteknologi

NvidiaChip**

Skroll til toppen