2025 NVIDIA Blackwell leder Stargate Stjerneport-prosjektet: En ny æra for KI-innovasjon

NVIDIA Blackwell leder Stargate-prosjektet: En ny æra for KI-innovasjon

Introduksjon: Fremveksten av et nytt KI-paradigme

Den nyeste KI-chiparkitekturen fra NVIDIA, Blackwell, er valgt som hovedmotoren for det ultrastorskalige KI-infrastrukturprosjektet Stargate. Dette banebrytende prosjektet, som støttes av en samlet investering på 500 milliarder dollar (omtrent 720 billioner KRW) fra OpenAI, Oracle, SoftBank og Abu Dhabis KI-investeringsselskap MGX, har som mål å bygge enorme datasenterkomplekser over hele USA i løpet av de neste fire årene. I hjertet av denne infrastrukturen ligger GPU-en GB200, basert på NVIDIA Blackwell. Blackwell hylles som et revolusjonerende gjennombrudd innen KI-trening og inferens, med opptil en femdobling av KI-beregningsevnen og en banebrytende utvidelse av minnet sammenlignet med tidligere generasjoner. Samtidig, etter ChatGPT-fenomenet i 2023, økte etterspørselen etter ultra-massive KI-modeller globalt, noe som tvang skyinfrastrukturer over hele verden til å håndtere en mangel på KI-beregningsressurser. For å møte denne utfordringen og befeste KI-dominansen har OpenAI og deres partnerbedrifter igangsatt massive investeringer – og lansert prosjekter som Stargate. Ved å møte denne enorme etterspørselen med sin Blackwell-arkitektur spiller NVIDIA en avgjørende rolle i KI-innovasjonen. Denne artikkelen gir en grundig gjennomgang av egenskapene til NVIDIA Blackwell-arkitekturen, omfanget og betydningen av Stargate-prosjektet, samt de globale markedstransformasjonene det er i ferd med å utløse.

For mer informasjon om de siste GTC-annonseringene fra NVIDIA, se vår detaljerte artikkel om NVIDIA GTC.

NVIDIA Blackwell: Kraften til neste generasjons KI-brikker

Avduket i 2024 er NVIDIA Blackwell den nyeste KI-GPU-arkitekturen som kan skryte av bransjeledende ytelse og teknologisk innovasjon. Basert på fremskrittene fra tidligere generasjoner som Volta, Ampere og Hopper, representerer Blackwell den femte generasjonen KI-brikker.

I mars 2024, under GTC-keynoten, presenterte NVIDIAs administrerende direktør Jensen Huang den nye Blackwell-GPUen (til venstre) sammen med forrige generasjons Hopper-GPU (til høyre).

Blant Blackwell-serien skiller toppmodellen B200 GPU seg ut som den største brikken hittil, bestående av over 20,8 milliarder transistorer. Den har et innovativt design som forener to enorme chiplets til en enkelt operasjonell enhet. Som et resultat oppnår Blackwell B200 en imponerende KI-beregningsevne på 20 petaflops (PFLOPs) på én enkelt brikke, optimalisert for banebrytende KI-arbeidsbelastninger som store språkmodeller (LLM) takket være sine Tensor Cores av sjette generasjon og Transformer Engines av andre generasjon. I tillegg er hver B200 GPU utstyrt med 192 GB ultrasnabb HBM3E-minne, noe som firedobler minnekapasiteten sammenlignet med forgjengerne og leverer en båndbredde på 8 TB/s for å håndtere enorme datamengder i sanntid.

En spesielt bemerkelsesverdig egenskap ved Blackwell-arkitekturen er dens støtte for neste generasjons NVLink-tilkobling. Med NVLink av femte generasjon kan titalls GPUer innen én server klynges sammen for å fungere som en gigantisk GPU. Ved å benytte dedikerte NVLink-switcher er det mulig å koble opptil 576 GPUer sammen med ultrasnille hastigheter, noe som skaper et enormt beregningsområde. Konfigurasjoner som NVL72, implementert i systemer basert på Blackwell, kan kombinere 72 GPUer til en enkelt node, noe som muliggjør sanntidsinferens på modeller med mer enn en billion parametere. Takket være denne skalerbarheten muliggjør bruken av Blackwell-GPUer bygging av KI-superdatamaskiner i en mye større skala enn tidligere, samtidig som flaskehalser i dataoverføringen mellom GPUer minimeres for å maksimere trenings-effektiviteten.

I tillegg har NVIDIA introdusert en integrert modul – GB200 Superchip – som direkte kobler Blackwell-GPUen til NVIDIAs server-CPU, Grace, via høyhastighetskoblinger. GB200-modulen kombinerer to B200 GPUer med en Grace-CPU som er koblet sammen via NVLink, noe som muliggjør mye raskere dataoverføring mellom CPU og GPU enn med PCIe, og reduserer flaskehalser under storskala distribuert trening. Grace-CPUen, som er basert på ARM-arkitektur, er designet for høy båndbredde ved minnetilgang og er optimalisert for å jobbe i tandem med NVIDIAs GPUer, med teknologi som er bevist i GH200 (Grace-Hopper) Superchip. Samlet sett øker Blackwell-arkitekturen ikke bare maskinvarens ytelse, men også den totale effektiviteten i systemarkitekturen, noe som løfter skalerbarheten til KI-infrastrukturen til et nytt nivå.

Viktige tekniske funksjoner for Blackwell B200/GB200:

  • Ultrastor chiplet-struktur: En GPU bestående av 20,8 milliarder transistorer fordelt over to chiplets, den største brikken som er tilgjengelig.
  • Enorm minnekapasitet: Utstyrt med 192 GB HBM3E-minne som leverer en båndbredde på 8 TB/s for å håndtere enorme mengder data i sanntid.
  • Eksponentiell beregningsytelse: Oppnår 20 PFLOPs i KI-beregninger, optimalisert for LLM-er med støtte for ekstremt lav presisjon FP4/FP8-operasjoner.
  • Skalerbar arkitektur: Bruker NVLink av femte generasjon for å koble sammen opptil 576 GPUer, med konfigurasjoner som NVL72 som støtter massive klynger.
  • CPU-GPU-integrasjon: GB200 Superchip-konfigurasjonen med Grace-CPU minimerer flaskehalser mellom CPU og GPU.
  • Pålitelighet og sikkerhet: Forbedret gjennom dedikerte RAS-motorer og Confidential Computing-teknologi.

Takket være disse imponerende spesifikasjonene fanget Blackwell-GPUen umiddelbart markedets oppmerksomhet ved lansering, noe som drev rekordvekst i NVIDIAs datasenterinntekter. Faktisk oppnådde NVIDIA en økning på 142 % år-over-år i datasenterinntektene for regnskapsåret 2025, med en total inntekt på 115,2 milliarder dollar, der salget av de nye Blackwell-brikkene alene stod for 11 milliarder dollar i fjerde kvartal 2025 (oktober–desember) – den raskeste produktveksten i selskapets historie. NVIDIAs CFO, Colette Kress, uttalte: « Blackwell adopteres i en aldri før sett hastighet og skala i vår historie, og med integrasjonen vil bygging av klynger med 100 000 GPUer snart bli normen. » Dermed posisjoneres introduksjonen av Blackwell som en revolusjonerende endring som raskt vil transformere KI-beregningsindustrien.

Stargate-prosjektet: Gryningen av en ultrastorskalig KI-infrastruktur

Stargate-prosjektet, annonsert i januar 2025, er et initiativ for ultrastorskalige KI-datasentre designet for å møte den eksplosive etterspørselen etter KI-beregningsevne fra OpenAI. Prosjektet, lansert som et joint venture av SoftBank-leder Son Jeong-ui, OpenAI, Oracle og Abu Dhabis investeringsselskap MGX – der SoftBank stiller den finansielle støtten og OpenAI leder operasjonene – er uten sidestykke i skala, med en total investering på 500 milliarder dollar. Umiddelbart etter kunngjøringen ble en initial investering på 100 milliarder dollar injisert, noe som satte i gang byggingen av det første datasenterkomplekset. Den amerikanske regjeringen har også lagt merke til dette; under et arrangement i Det hvite hus erklærte president Donald Trump: « Vi skal bygge verdens kraftigste KI-system i Amerika, » og uttrykte dermed full støtte til Stargate. Denne strategiske investeringen har som mål å overgå konkurrerende nasjoner som Kina i KI-våpenkappløpet.

Det første datasenterkomplekset under Stargate-prosjektet ligger i Abilene, Texas, med forberedelser og bygging pågår siden andre halvdel av 2024. Ifølge rapporter vil dette campusen etter hvert bestå av mellom 10 og 20 separate datasenterbygninger, bygget i faser, noe som vil gjøre det til verdens største KI-superdatamaskinsenter når det er ferdigstilt. Larry Ellison, styreleder i Oracle, uttalte på stedet at « ti datasentre allerede er under bygging, » mens OpenAI ifølge opplysninger vurderer ytterligere steder i 16 amerikanske delstater. Hvert campus er planlagt som en enorm installasjon som forbruker gigawatt (GW) med strøm; med bare 5–10 campus vil en kolossal beregningsinfrastruktur som strekker seg over flere GW bli etablert.

Det unike med Stargate-prosjektet ligger ikke bare i den fysiske skalaen til datasentrene, men også i det kvalitative nivået av KI-beregningsevne de vil huse. OpenAI og deres partnere planlegger å investere verdens beste KI-beregningsevner i denne enorme infrastrukturen, som skal brukes til å trene og drifte neste generasjons GPT-modeller. For dette formålet vil titusenvis av NVIDIA Blackwell GB200 GPUer bli distribuert over Stargate-datasentrene. Markedsundersøkelser antyder at anlegget i første fase i Abilene, Texas, vil ha omtrent 64 000 NVIDIA GB200-brikker installert og operativt innen utgangen av 2026. Gitt at én enkelt Blackwell GPU koster mellom 30 000 og 40 000 dollar (omtrent 40–50 millioner KRW), estimeres maskinvarekostnaden for GPUer i et datasenter til å ligge på billioner KRW. Med fremtidige campusutvidelser og ytterligere utvikling av nye steder er Stargate-prosjektet på vei til å bli verdens største KI-beregningsinfrastruktur, med hundretusener av GPUer distribuert.

De enorme beregningsressursene vil hovedsakelig støtte treningen og inferensen til OpenAI-modellene, og kan også gjøres tilgjengelig for eksterne bedrifter eller forskningsinstitusjoner via Oracles sky-tjenester. Siden NVIDIA og Oracle, begge med omfattende erfaring i å drifte massive GPU-klynger, vil administrere denne infrastrukturen, forventes det en høy grad av pålitelighet i driften og utnyttelsen av et slikt ultrastort system.

Hvorfor distribuerer Stargate-prosjektet NVIDIA Blackwell GB200 i stor skala?

Hvorfor valgte Stargate-prosjektet å distribuere GB200 basert på NVIDIA Blackwell i en slik skala? Svaret ligger i Blackwells evne til å tilby den mest kraftfulle og skalerbare KI-maskinvareplattformen som finnes i dag. OpenAIs neste generasjons modeller består av hundrevis av milliarder til billioner av parametere, noe som krever GPUer som kan håndtere enorme beregningsbelastninger. Som tidligere nevnt oppnår Blackwell B200/GB200 opptil en femdobling i ytelse sammenlignet med forrige generasjons Hopper (H100), med en firedobling av GPU-minnekapasiteten, noe som gjør det enklere å laste inn hele, store modeller i GPU-minnet. Dette muliggjør effektiv trening av større batcher og dypere modeller – og forbedrer trenings-effektiviteten for ultrastorskalige modeller.

Videre kan introduksjonen av FP8- og FP4-operasjoner med lav presisjon, sammen med avanserte optimaliseringer av transformer-operasjoner i Blackwell-arkitekturen, dramatisk øke inferenshastigheten til storskala språkmodeller som ChatGPT. For eksempel kan Blackwell-baserte servere behandle titusenvis av tokens per sekund, noe som reduserer latensen betydelig i sanntids KI-samtaletjenester og senker driftskostnadene. Selv om OpenAI utvikler en neste generasjons modell som er langt større enn GPT-4, forventes en infrastruktur bestående av titusenvis av Blackwell GPUer å kunne støtte den tilstrekkelig. Ifølge kunngjøringen fra NVIDIA viste en NVL72-node, bestående av 72 Blackwell GPUer, en sanntids inferensytelse som var over 30 ganger bedre enn de eksisterende DGX-serverne med 8 GPUer, noe som innebærer en betydelig reduksjon i antallet fysiske servere som kreves for storskala utrulling av modeller. Med andre ord vil distribusjonen av Blackwell i Stargate redusere antallet servere som trengs for tilsvarende beregningsoppgaver, noe som forbedrer energieffektiviteten og utnyttelsen av plassen, og til slutt senker driftskostnadene.

Støtten fra banebrytende nettverksteknologier, slik som NVIDIA Spectrum‑X, er en annen kritisk faktor som driver den storskala adopsjonen av Blackwell i Stargate. I disse ultrastorskalige GPU-klyngene har kommunikasjonen mellom GPUene en avgjørende innvirkning på systemets samlede ytelse. NVIDIA introduserte, parallelt med lanseringen av Blackwell, sin høyytelses Ethernet-teknologi Spectrum‑X, som tilbyr en optimalisert nettverksløsning for massive KI-klynger. NVIDIA har kunngjort at de vil levere denne Spectrum‑X-plattformen til de første datasentrene i Stargate-prosjektet. Dette vil minimere kommunikasjonslatensen mellom GPUene og, i kombinasjon med NVLink-switcher, muliggjøre etableringen av et ultrasnilt KI-nettverk som kobler sammen titusenvis av GPUer. Den nøkkelferdige helhetsløsningen som NVIDIA tilbyr, er en betydelig fordel for Stargate. Kort sagt, det er den helhetlige kombinasjonen av topp ytelse, bemerkelsesverdig skalerbarhet og effektiv storskala drift – legemliggjort i Blackwell GB200-plattformen – som har gjort denne løsningen til det åpenbare valget som kjernen i Stargate-prosjektet.

Global påvirkning på KI-industrien og fremtidsutsikter

Bruken av NVIDIA Blackwell i Stargate-prosjektet har betydelige implikasjoner for den globale KI-industrien. For det første symboliserer denne casen den raske ekspansjonen av investeringer i KI-infrastruktur. Tidligere investerte enkeltbedrifter eller institusjoner milliarder dollar i KI-infrastruktur, men nå beveger landskapet seg mot megaprosjekter som involverer konsortier med investeringer på hundrevis av milliarder dollar, noe som Stargate tydelig demonstrerer. NVIDIAs administrerende direktør Jensen Huang har beskrevet disse enorme KI-datasentrene som « KI-fabrikker » og understreket at de vil være kjernen i den neste industrielle revolusjonen. Dette indikerer at konkurransen om utvikling av KI-modeller har blitt en kamp mellom ultrastorskalige aktører, og de som mangler enorm kapital og teknologi risikerer å bli stående på perrongen. Faktisk har enkelte bransjeeksperter til og med spekulert i at Samsung kan slutte seg til Stargate, noe som potensielt kan danne en annen stor KI-allianse – et tydelig eksempel på den disruptive effekten av denne kunngjøringen. Følgelig forventes det at andre globale teknologigiganter vil akselerere sine egne anstrengelser for å bygge KI-superdatamaskiner. Microsoft, Google, Meta og til og med kinesiske statseide selskaper utvider allerede, eller planlegger å utvide, sine datasentre med titusenvis av GPUer. Startups som CoreWeave i USA har også begynt å sikre seg over 250 000 GPUer for å utfordre markedet for KI-sky-tjenester. For å møte denne eksplosive etterspørselen etter Blackwell-GPUer, øker NVIDIA produksjonen, og dersom denne trenden fortsetter, forventes selskapets dominerende posisjon i KI-semiledermarkedet å forbli intakt i overskuelig fremtid.

Fremskrittene i Stargate-prosjektet er også klare til å akselerere innovasjonen i hele datasenterindustrien. Datasenterkomplekser med en kapasitet på 1 GW vil medføre nye tekniske utfordringer når det gjelder strømforsyning, kjøling og nettverk. For eksempel kan innovative storskala væskekjølesystemer eller avanserte klimaanlegg bli implementert for effektivt å håndtere varmen generert av hundretusener av høyytelses GPUer. En stabil strømforsyning vil bli sikret gjennom integrasjon av fornybar energiproduksjon, energilagringssystemer og høyspent likestrøms (HVDC) distribusjon ved hjelp av den nyeste elektroteknologien. Til syvende og sist vil disse fremskrittene drive utviklingen av datasenters teknologier fremover, noe som vil gagne ikke bare KI, men også generelle sky-tjenester. I tillegg forventes byggingen av en omfattende KI-infrastruktur i USA å ha en positiv innvirkning på lokale økonomier ved å stimulere regional økonomisk aktivitet og skape høyteknologiske arbeidsplasser. Allerede nå blir hundrevis av personer ansatt for å drifte datasentre i Abilene-regionen, og hvert nytt campus forventes å skape tusenvis av nye arbeidsplasser.

Fra et teknologisk perspektiv kan fremveksten av ultrastorskalige klynger som Stargate fundamentalt forandre paradigmet for KI-forskning og -utvikling. Mens tidligere innsats var fokusert på å overvinne modellbegrensninger gjennom algoritmeoptimalisering og distribuerte læringsteknikker, gjør nå lettelsen av maskinvarebegrensninger det mulig å implementere og eksperimentere direkte med modeller med et antall parametere som aldri før er sett. Dette kan til slutt bringe oss et steg nærmere realiseringen av AGI (kunstig generell intelligens) og legge grunnlaget for et kvantesprang i ytelsen til KI-modeller. Forskere ved OpenAI og andre institusjoner kan snart få muligheten til å sette i gang massive prosjekter som tidligere var utenkelige, og dermed bane vei for vitenskapelige gjennombrudd og løsninger på komplekse problemer ved hjelp av KI.

De kommende årene vil kreve nøye oppfølging av fremskrittene til NVIDIA og Stargate-prosjektet. NVIDIA har allerede kunngjort planer for sin neste generasjons chip – « Blackwell Ultra » – samt for påfølgende arkitekturer (med kode-navnet Vera Rubin), og skisserer en veikart for en eksponentiell vekst i KI-beregningsevnen. På samme måte forventes det at Stargate, etter lanseringen av sitt første campus, gradvis vil utvide med flere campus og ferdigstille sin infrastruktur innen fire år. I denne prosessen vil den opprinnelig Blackwell-baserte utrustningen gradvis bli erstattet eller supplert med oppgraderinger fra neste generasjon, slik at den utviklende KI-infrastrukturen forblir i forkant av teknologien. For eksempel kan Blackwell Ultra-chips eller forbedrede Grace-CPUer introduseres etter 2026, noe som ytterligere vil booste klyngeytelsen. Gjennom samskapning av maskinvare og infrastruktur er det forventet at KI-industrien vil opprettholde en rask vekst i overskuelig fremtid, og det tette samarbeidet mellom NVIDIA og OpenAI vil ha en betydelig innflytelse på hele sektoren.

Konklusjon: En ny æra for KI-innovasjon frigjort av NVIDIA Blackwell og Stargate

Innføringen av GB200 basert på NVIDIA Blackwell har satt et nytt veiskille innen KI-maskinvare, og integrasjonen med Stargate-prosjektet er klar til å frigjøre hele dens potensial. Dette prosjektet – der verdens ledende KI-brikker møter et nivå av kapital og infrastruktur uten sidestykke – forventes ikke bare å bygge enorme datasentre, men også å utløse et paradigmeskifte i KI-innovasjonen. Med NVIDIAs mange års ekspertise, det nære samarbeidet med OpenAI og den sterke reputasjonen begge selskapene har i industrien, er det stor tro på suksessen til dette ultrastorskalige KI-systemet.

Naturligvis medfører slike kolossale prosjekter sine egne utfordringer. De første rapportene om termiske problemer i Blackwell-baserte systemer understreker for eksempel muligheten for uforutsette hindringer knyttet til adopsjon av ny teknologi. I tillegg må bærekraftsspørsmål knyttet til energiforbruket og varmen generert av hundretusener av KI-brikker adresseres. Likevel jobber NVIDIA, OpenAI og andre aktører i industrien aktivt med å drive frem teknologiske fremskritt og innovative infrastruktur-løsninger for å overvinne disse utfordringene.

Når Stargate-infrastrukturen – bestående av hundretusener av NVIDIA Blackwell GPUer – blir fullstendig operativ, vil vi være vitne til en ny æra der hastigheten og kapasiteten til trening og inferens av KI-modeller er uten sidestykke. Dette vil føre til en betydelig økning i bruken av KI på tvers av ulike sektorer, og stimulere fremveksten av innovative tjenester og produkter innen områder som autonom kjøring, helse, finans og produksjon. Konvergensen mellom NVIDIA Blackwell og Stargate-prosjektet markerer et vendepunkt i KI-historien, og akselererer utviklingen av KI til nivåer som aldri tidligere er sett. Mens vi fortsetter å følge med på fremdriften og resultatene av dette kolossale prosjektet, vil det være avgjørende å nøye overvåke hvordan denne KI-infrastrukturen vil transformere menneskehetens fremtid. Stargate-prosjektet og NVIDIAs innsats for å presse grensene for KI forbereder oss på det neste kapitlet i KI-revolusjonen.

Ofte stilte spørsmål (FAQ)

Hva er Stargate-prosjektet?

Stargate-prosjektet er et initiativ for ultrastorskalige KI-datasentre som ble lansert i 2025 for å støtte den eksplosive etterspørselen etter KI-beregningsevne fra OpenAI. Prosjektet, som investeres i felles av SoftBank, OpenAI, Oracle og investeringsselskapet MGX fra Abu Dhabi – der SoftBank stiller den finansielle støtten og OpenAI leder driften – vil bygge enorme datasenterkomplekser på ulike steder i USA. Det første campus er under bygging i Abilene, Texas, og hele prosjektet, verdsatt til 500 milliarder dollar, representerer et investeringsnivå uten sidestykke i ett enkelt initiativ. Denne strategiske satsingen har som mål å befeste USAs lederskap innen KI og støtte utviklingen av AGI.

Hva er NVIDIA Blackwell GB200, og hvor kraftig er den?

Blackwell er den nyeste GPU-arkitekturen fra NVIDIA, avduket i 2024. GB200 betegner en superchip som integrerer to B200 GPUer med en Grace-CPU. B200 GPUen inneholder 20,8 milliarder transistorer, leverer opptil 20 PFLOPs i KI-beregninger og er utstyrt med 192 GB ultrasnabb HBM3E-minne. Den er koblet sammen via en skreddersydd interconnect med en båndbredde på 10 TB/s mellom chiplets, og med sine Tensor Cores av sjette generasjon og Transformer Engines av andre generasjon tilbyr NVIDIA Blackwell GB200 nesten fem ganger høyere inferenshastighet og fire ganger større minnekapasitet enn sin forgjenger, H100 (Hopper). Med NVLink av femte generasjon kan den klynge sammen hundrevis av GPUer, noe som gir en enestående skalerbarhet.

Hvorfor bygger OpenAI egne datasentre i tillegg til å bruke Azure Cloud?

Til tross for at de får tilgang til enorme skyressurser fra Microsoft Azure, har den eksplosive suksessen til ChatGPT ført til en eksponentiell økning i beregningsbehovet, som på sikt kan overstige den skalaen og fleksibiliteten Azure tilbyr – samtidig som kostnadene potensielt kan øke. Gjennom Stargate-prosjektet sikter OpenAI mot å sikre sin egen dedikerte KI-infrastruktur for å støtte storskala beregninger og redusere avhengigheten av Azure. I tillegg gir eierskap til distribuerte datasentre over hele USA fordeler når det gjelder datasuverenitet og sikkerhet. Denne strategien forbedrer ikke bare kontrollen over data og infrastruktur, men forventes også å redusere langsiktige skyutgifter. OpenAI vil fortsette å samarbeide med Azure som en del av en toveis tilnærming.

Hvem er konkurrentene til NVIDIA Blackwell?

På dagens marked for KI-akseleratorer er de store konkurrentene som utfordrer NVIDIA blant annet AMD og Google. AMD konkurrerer med datasenter-GPUer som MI300, mens Google bruker sine egne proprietære TPUer for storskala KI-beregninger. Mange bransjeeksperter – inkludert kjente personer som Elon Musk – har imidlertid uttalt at «det finnes ingenting bedre enn NVIDIAs maskinvare akkurat nå», noe som reflekterer den dominerende ytelsen til Blackwell. NVIDIAs omfattende styrker innen maskinvare, deres CUDA-økosystem, programvareoptimaliseringer og interconnect-teknologier som NVLink sikrer at Blackwell-arkitekturen forblir ledende innen KI-trening og inferens i overskuelig fremtid. I tillegg styrker amerikanske regjeringspolitikker som regulerer eksport av banebrytende KI-brikker, spesielt med tanke på Kina, NVIDIAs konkurranseposisjon ytterligere.

Kilder og referanser:

  • Offisiell kunngjøring på OpenAI-bloggen (21. januar 2025)
  • Nyhetsartikkel fra DatacenterDynamics (27. februar 2025)
  • Bloomberg-rapport (Rachel Metz m.fl., 6. mars 2025)
  • NVIDIA GTC 2024 Keynote og tekniske dokumenter (sammendrag fra TechPowerUp m.fl.)
  • Entrepreneur/Bloomberg-intervju (4. oktober 2024)
  1. NVIDIAs offisielle nettside: https://www.nvidia.com/en-us/
  2. NVIDIA GTC-siden: https://www.nvidia.com/en-us/gtc/
  3. OpenAI-bloggen: https://openai.com/blog/
  4. DatacenterDynamics: https://www.datacenterdynamics.com/
  5. Bloomberg Technology: https://www.bloomberg.com/technology
  6. TechPowerUp: https://www.techpowerup.com/
Skroll til toppen