
NVIDIA Blackwell leidt het Stargate-project: een nieuw tijdperk van AI-innovatie
Inleiding: De opkomst van een nieuw AI-paradigma
NVIDIA’s nieuwste AI-chiparchitectuur, Blackwell, is gekozen als de kernmotor voor het ultraschaal AI-infrastructuurproject Stargate. Dit baanbrekende project, dat wordt gedreven door investeringen van in totaal 500 miljard dollar (ongeveer 720 biljoen KRW) van OpenAI, Oracle, SoftBank en Abu Dhabi’s AI-investeringsfirma MGX, heeft als doel om de komende vier jaar enorme datacentrumcampussen in de Verenigde Staten te bouwen. In het hart van deze infrastructuur bevindt zich de NVIDIA Blackwell-gebaseerde GB200 GPU. Blackwell wordt geprezen als een revolutionaire doorbraak in AI-training en inferentie, met een tot vijf keer hogere AI-rekenkracht en een baanbrekende uitbreiding van het geheugen in vergelijking met eerdere generaties. Tegelijkertijd leidde het ChatGPT-fenomeen in 2023 tot een wereldwijde explosieve vraag naar ultragrote AI-modellen, waardoor wereldwijde cloudinfrastructuren te maken kregen met een tekort aan AI-rekenresources. Om deze uitdaging het hoofd te bieden en de AI-dominantie te versterken, hebben OpenAI en haar partnerbedrijven massale investeringen in gang gezet – met projecten zoals Stargate. NVIDIA speelt een cruciale rol in de AI-innovatie door aan deze enorme vraag te voldoen met zijn Blackwell-architectuur. Dit artikel biedt een diepgaande analyse van de kenmerken van de NVIDIA Blackwell-architectuur, de schaal en betekenis van het Stargate-project en de wereldwijde markttransformaties die het teweeg zal brengen.
Voor meer inzichten over NVIDIA’s nieuwste GTC-aankondigingen, bekijk ons gedetailleerde artikel over NVIDIA GTC.
NVIDIA Blackwell: De kracht van AI-chips van de volgende generatie
Geïntroduceerd in 2024, is NVIDIA’s Blackwell de nieuwste AI GPU-architectuur die toonaangevende prestaties en technologische innovatie biedt. Gebaseerd op de vooruitgang van eerdere generaties zoals Volta, Ampere en Hopper, vertegenwoordigt Blackwell de vijfde generatie AI-chips.
In maart 2024 presenteerde NVIDIA-CEO Jensen Huang tijdens de GTC-keynote de nieuwe Blackwell GPU (links) naast de vorige generatie Hopper GPU (rechts).
Binnen de Blackwell-serie valt de topklasse B200 GPU op als het grootste chip tot nu toe, bestaande uit meer dan 20,8 miljard transistors. Het beschikt over een innovatief ontwerp dat twee enorme chiplets verenigt tot één enkele operationele eenheid. Daardoor behaalt de Blackwell B200 een verbazingwekkende 20 petaflops (PFLOPs) aan AI-rekenprestaties op één enkele chip, geoptimaliseerd voor geavanceerde AI-werkbelastingen zoals grote taalmodellen (LLM’s) dankzij de 6e generatie Tensor Cores en 2e generatie Transformer Engines. Bovendien is elke B200 GPU uitgerust met 192GB ultrasnel HBM3E-geheugen, wat de geheugencapaciteit verviervoudigt ten opzichte van zijn voorgangers en een bandbreedte van 8TB/s levert om enorme datasets in real-time te verwerken.
Een bijzonder opvallende eigenschap van de Blackwell-architectuur is de ondersteuning voor de interconnectie van de volgende generatie NVLink. Met 5e generatie NVLink kunnen tientallen GPU’s binnen één server worden gegroepeerd zodat ze als één gigantische GPU functioneren. Door gebruik te maken van speciale NVLink-switches is het mogelijk om tot 576 GPU’s met ultrasnelle snelheden te verbinden, wat een enorm rekengebied vormt. Structuren zoals NVL72, geïmplementeerd in Blackwell-gebaseerde systemen, kunnen 72 GPU’s combineren tot één enkele node, waardoor real-time inferentie op modellen met meer dan een biljoen parameters mogelijk is. Dankzij deze schaalbaarheid maakt het gebruik van Blackwell GPU’s de bouw van AI-supercomputers op een veel grotere schaal mogelijk, terwijl knelpunten in de gegevensoverdracht tussen GPU’s tot een minimum worden beperkt om de trainingsefficiëntie te maximaliseren.
Daarnaast heeft NVIDIA een geïntegreerde module geïntroduceerd – de GB200 Superchip – die de Blackwell GPU rechtstreeks verbindt met NVIDIA’s server-CPU, Grace, via hogesnelheidsverbindingen. De GB200-module combineert twee B200 GPU’s met één Grace CPU, verbonden door NVLink, waardoor de datastroom tussen CPU en GPU veel sneller verloopt dan via PCIe en knelpunten tijdens grootschalige gedistribueerde training worden verminderd. De Grace CPU, gebaseerd op ARM-architectuur, is ontworpen voor toegang tot geheugen met hoge bandbreedte en is geoptimaliseerd om samen te werken met NVIDIA GPU’s, voortbouwend op de technologie die bewezen is in de GH200 (Grace-Hopper) Superchip. Kortom, de Blackwell-architectuur verhoogt niet alleen de hardwareprestaties, maar ook de algehele efficiëntie van de systeemarchitectuur, waardoor de schaalbaarheid van AI-infrastructuur naar een nieuw niveau wordt getild.
Belangrijke technische kenmerken van de Blackwell B200/GB200:
- Ultragrote chipletstructuur: Een GPU bestaande uit 20,8 miljard transistors verdeeld over twee chiplets, het grootste chip dat beschikbaar is.
- Enorme geheugencapaciteit: Uitgerust met 192GB HBM3E-geheugen dat een bandbreedte van 8TB/s levert voor het in real-time verwerken van enorme datasets.
- Exponentiële rekenprestaties: Behaalt 20 PFLOPs aan AI-berekeningen, geoptimaliseerd voor LLM’s met ondersteuning voor ultra-low precision FP4/FP8-bewerkingen.
- Schaalbare architectuur: Maakt gebruik van 5e generatie NVLink om tot 576 GPU’s te verbinden, met configuraties zoals NVL72 die massieve clusteropstellingen ondersteunen.
- Integratie van CPU en GPU: De GB200 Superchip-configuratie met Grace CPU minimaliseert knelpunten tussen CPU en GPU.
- Betrouwbaarheid en veiligheid: Versterkt door speciale RAS-engines en technologie voor vertrouwelijke verwerking.
Dankzij deze overweldigende specificaties heeft de Blackwell GPU onmiddellijk de aandacht van de markt getrokken bij de lancering, wat heeft geleid tot recordgroei in NVIDIAs datacenter-omzet. In feite behaalde NVIDIA een stijging van 142% op jaarbasis in de datacenter-omzet voor het fiscale jaar 2025, met een totaal van $115,2 miljard, waarbij de verkoop van nieuwe Blackwell-chips alleen al goed was voor $11 miljard in Q4 2025 (oktober–december) – de snelste productgroei in de geschiedenis van het bedrijf. NVIDIA CFO Colette Kress verklaarde: “Blackwell wordt in een ongekende snelheid en schaal overgenomen in onze geschiedenis, en met de integratie ervan zal het bouwen van clusters van 100.000 GPU’s binnenkort de norm worden.” Zo wordt de komst van Blackwell gepositioneerd als een revolutionaire doorbraak die de AI-rekenindustrie snel zal transformeren.
Het Stargate-project: De dageraad van ultraschaal AI-infrastructuur
Aangekondigd in januari 2025, is het Stargate-project een ultraschaal AI-datacenterinitiatief dat is ontworpen om te voldoen aan de explosieve vraag naar AI-rekenkracht van OpenAI. Gelanceerd als een joint venture door SoftBank-voorzitter Son Jeong-ui, OpenAI, Oracle en Abu Dhabi’s investeringsfirma MGX – waarbij SoftBank de financiële ondersteuning verzorgt en OpenAI de operaties leidt – is dit project ongekend in schaal, met een totale investering van $500 miljard. Direct na de aankondiging werd er een initiële injectie van $100 miljard gedaan, wat de bouw van het eerste datacentrumcampus in gang zette. Ook de Amerikaanse overheid heeft dit opgemerkt; tijdens een evenement in het Witte Huis verklaarde president Donald Trump: “Wij zullen het krachtigste AI-systeem ter wereld in Amerika bouwen,” waarmee hij zijn volledige steun voor Stargate uitte. Deze strategische investering is gericht op het inhalen van concurrerende landen zoals China in de AI-wapenwedloop.
Het eerste datacentrumcampus binnen het Stargate-project bevindt zich in Abilene, Texas, waar de voorbereiding van de locatie en de bouw al aan de gang zijn sinds de tweede helft van 2024. Rapporten geven aan dat dit campus uiteindelijk tussen de 10 en 20 afzonderlijke datacentergebouwen in fasen zal omvatten, waardoor het bij voltooiing het grootste AI-supercomputingcentrum ter wereld wordt. Larry Ellison, voorzitter van Oracle, heeft ter plaatse aangegeven dat “tien datacenters al in aanbouw zijn,” terwijl OpenAI naar verluidt aanvullende locaties in 16 Amerikaanse staten evalueert. Elk campus is gepland als een enorme faciliteit die gigawatt (GW) aan stroom verbruikt; met slechts 5–10 campussen zal een kolossale rekeninfrastructuur die zich over meerdere GW uitstrekt, worden gerealiseerd.
De uniekheid van het Stargate-project ligt niet alleen in de fysieke schaal van zijn datacenters, maar ook in het kwalitatieve niveau van de AI-rekenkracht die zij zullen huisvesten. OpenAI en haar partners zijn van plan om de beste AI-rekenmogelijkheden ter wereld te investeren in deze enorme infrastructuur, die zal worden gebruikt voor het trainen en bedienen van GPT-modellen van de volgende generatie. Daartoe zullen tienduizenden NVIDIA Blackwell GB200 GPU’s worden ingezet in de Stargate-datacenters. Marktonderzoek suggereert dat de faciliteit in de eerste fase in Abilene, Texas, tegen het einde van 2026 ongeveer 64.000 NVIDIA GB200-chips geïnstalleerd en operationeel zal hebben. Aangezien een enkele Blackwell GPU tussen de $30.000 en $40.000 kost (ongeveer 40–50 miljoen KRW), wordt de hardwarekost voor GPU’s in één faciliteit geschat op biljoenen KRW. Rekening houdend met toekomstige campusuitbreidingen en aanvullende locatieontwikkelingen, staat het Stargate-project op het punt de grootste mondiale AI-rekeninfrastructuur te worden, met honderden duizenden GPU’s ingezet. De enorme rekenkracht zal voornamelijk de training en inferentie van OpenAI’s modellen ondersteunen en kan ook beschikbaar worden gesteld aan externe bedrijven of onderzoeksinstellingen via de clouddiensten van Oracle. Aangezien zowel NVIDIA als Oracle, beide met uitgebreide ervaring in het beheren van massieve GPU-clusters, deze infrastructuur zullen beheren, wordt er een hoge betrouwbaarheid verwacht in het operationeel houden en benutten van zo’n ultraschaal systeem.
Waarom rolt het Stargate-project NVIDIA Blackwell GB200 op grote schaal uit?
Waarom heeft het Stargate-project ervoor gekozen om de NVIDIA Blackwell-gebaseerde GB200 op zo’n grote schaal in te zetten? Het antwoord ligt in Blackwell’s vermogen om het krachtigste en meest schaalbare AI-hardwareplatform te bieden dat momenteel beschikbaar is. De volgende generatie modellen van OpenAI bestaat uit honderden miljarden tot biljoenen parameters, wat GPU’s vereist die in staat zijn om enorme rekenbelastingen te verwerken. Zoals eerder genoemd behaalt de Blackwell B200/GB200 tot vijf keer meer prestaties dan de vorige Hopper (H100)-generatie, met een verviervoudigde GPU-geheugencapaciteit, waardoor het eenvoudiger wordt om hele grote modellen in het GPU-geheugen te laden. Dit vertaalt zich in de mogelijkheid om grotere batches en diepere modellen efficiënt te trainen, waardoor de trainingsefficiëntie voor ultragrote modellen verbetert.
Bovendien kan de introductie van FP8- en FP4-operaties met lage precisie, samen met verbeterde optimalisaties voor transformer-operaties in de Blackwell-architectuur, de inferentiesnelheid van grootschalige taalmodellen zoals ChatGPT drastisch verhogen. Zo kunnen servers op basis van Blackwell tienduizenden tokens per seconde verwerken, wat de latentie in real-time conversatie-AI-diensten aanzienlijk vermindert en de operationele kosten verlaagt. Zelfs als OpenAI een volgende generatie model ontwikkelt dat veel groter is dan GPT-4, wordt verwacht dat een infrastructuur bestaande uit tienduizenden Blackwell GPU’s dit ruimschoots kan ondersteunen. Volgens de aankondiging van NVIDIA toonde een NVL72-node, bestaande uit 72 Blackwell GPU’s, meer dan 30 keer de real-time inferentieprestaties ten opzichte van de bestaande 8-GPU DGX-servers, wat duidt op een aanzienlijke vermindering van het aantal fysieke servers dat nodig is voor grootschalige modelinzet. Met andere woorden, de inzet van Blackwell in Stargate zal het aantal servers dat nodig is voor equivalente rekenkundige taken verminderen, waardoor de energie- en ruimte-efficiëntie verbetert en uiteindelijk de operationele kosten dalen.
Ondersteuning van baanbrekende netwerktechnologieën zoals NVIDIA Spectrum-X is een andere cruciale factor die de grootschalige adoptie van Blackwell in Stargate stimuleert. In deze ultragrote GPU-clusters beïnvloedt de communicatie tussen GPU’s de algehele systeemprestaties aanzienlijk. NVIDIA introduceerde, naast de lancering van Blackwell, zijn high-performance Ethernet-technologie Spectrum-X, die een geoptimaliseerde netwerkoplossing biedt voor massale AI-clusters. NVIDIA heeft aangekondigd dat het dit Spectrum-X-netwerkplatform zal leveren aan de eerste datacenters in het Stargate-project. Dit zal de communicatie-latency tussen GPU’s minimaliseren en, in combinatie met NVLink-switches, de vorming van een ultrasnel AI-netwerk mogelijk maken dat tienduizenden GPU’s met elkaar verbindt. De turnkey-natuur van deze totaaloplossing die door NVIDIA wordt geboden, vormt een aanzienlijk voordeel voor Stargate. Kortom, het is de alomvattende combinatie van topprestaties, opmerkelijke schaalbaarheid en efficiënte grootschalige werking – belichaamd in het Blackwell GB200-platform – die het de duidelijke keuze maakt als de kern van het Stargate-project.
Wereldwijde impact op de AI-industrie en toekomstperspectieven
De inzet van NVIDIA Blackwell in het Stargate-project heeft aanzienlijke implicaties voor de wereldwijde AI-industrie. Ten eerste symboliseert deze casus de snelle uitbreiding van investeringen in AI-infrastructuur. Waar in het verleden individuele bedrijven of instellingen miljarden dollars investeerden in AI-infrastructuur, ontwikkelt het landschap zich nu richting megaprojecten waarbij consortia betrokken zijn met investeringen van honderden miljarden dollars, zoals Stargate aantoont. NVIDIA-CEO Jensen Huang heeft deze enorme AI-datacenters omschreven als “AI-fabrieken” en benadrukt dat zij centraal zullen staan in de volgende industriële revolutie. Dit geeft aan dat de concurrentie in de ontwikkeling van AI-modellen is uitgegroeid tot een strijd tussen ultragrote spelers, waarbij degenen die niet beschikken over enorme kapitaalreserves en technologie het risico lopen achter te blijven. In feite hebben sommige branche-experts zelfs gespeculeerd dat Samsung zich bij Stargate zou kunnen aansluiten, wat mogelijk leidt tot een andere grote AI-alliantie – een illustratie van de ontwrichtende impact van de aankondiging. Bijgevolg wordt verwacht dat andere wereldwijde techreuzen hun eigen inspanningen zullen versnellen om AI-supercomputers te bouwen. Microsoft, Google, Meta en zelfs Chinees staatsbedrijven breiden al hun datacenters uit of zijn van plan dit te doen met tienduizenden GPU’s. Startups zoals CoreWeave in de Verenigde Staten zijn ook begonnen met het veiligstellen van meer dan 250.000 GPU’s om de markt voor AI-cloudservices uit te dagen. Om aan deze explosieve vraag naar Blackwell GPU’s te voldoen, verhoogt NVIDIA de productie, en als deze trend zich voortzet, wordt verwacht dat de dominante positie in de AI-halfgeleidermarkt nog enige tijd stevig zal blijven.
De voortgang van het Stargate-project staat er tevens op het punt om de innovatie in de gehele datacenterindustrie te versnellen. Datacentercampussen met een capaciteit van 1GW zullen nieuwe technische uitdagingen met zich meebrengen op het gebied van stroomvoorziening, koeling en netwerken. Zo kunnen innovatieve grootschalige vloeistofkoelsystemen of geavanceerde airconditioningsystemen worden geïntroduceerd om de warmte, die door honderden duizenden high-performance GPU’s wordt gegenereerd, efficiënt te beheren. Een stabiele stroomvoorziening wordt gewaarborgd door de integratie van hernieuwbare energieopwekking, energiesystemen voor opslag en hoogspanningsgelijkstroom (HVDC) stroomdistributie, met behulp van de meest geavanceerde elektrische infrastructuur. Uiteindelijk zullen deze vooruitgangen de evolutie van datacentersystemen stimuleren, wat niet alleen AI, maar ook algemene cloudservices ten goede komt. Bovendien wordt verwacht dat de bouw van uitgestrekte AI-infrastructuur in de Verenigde Staten een positieve impact zal hebben op lokale economieën door de regionale economische activiteit te stimuleren en hightechbanen te creëren. Al worden er in de regio Abilene honderden medewerkers aangenomen voor datacenteroperaties, en wordt verwacht dat elk nieuw campus duizenden nieuwe banen zal creëren.
Vanuit technologisch perspectief zou de opkomst van ultragrote clusters zoals Stargate het paradigma van AI-onderzoek en -ontwikkeling fundamenteel kunnen veranderen. Waar eerdere inspanningen gericht waren op het overwinnen van modelbeperkingen via algoritme-optimalisatie en gedistribueerde leertechnieken, maakt de verlichting van hardwarebeperkingen nu de directe implementatie en experimentatie van modellen met een ongekend aantal parameters mogelijk. Dit zou ons uiteindelijk een stap dichterbij kunnen brengen bij het bereiken van AGI (Artificial General Intelligence) en de vruchtbare grond bieden voor een kwantumsprong in de prestaties van AI-modellen. Onderzoekers bij OpenAI en elders zouden binnenkort in staat kunnen zijn om massale projecten aan te pakken die voorheen ondenkbaar waren, wat de weg vrijmaakt voor wetenschappelijke doorbraken en de oplossing van complexe problemen met behulp van AI.
De komende jaren zullen nauwlettend gevolgd moeten worden wat betreft de voortgang van NVIDIA en het Stargate-project. NVIDIA heeft al plannen aangekondigd voor zijn chip van de volgende generatie – Blackwell Ultra – en daaropvolgende architecturen (met de codenaam Vera Rubin), waarin een routekaart wordt geschetst voor exponentiële groei in AI-rekenkracht. Eveneens wordt verwacht dat Stargate, na de lancering van het eerste campus, geleidelijk aanvullende campussen zal uitbreiden en dat de infrastructuur binnen vier jaar voltooid zal zijn. In dit proces zal de aanvankelijke op Blackwell gebaseerde apparatuur opeenvolgend worden vervangen of uitgebreid met upgrades van de volgende generatie, zodat de zich ontwikkelende AI-infrastructuur voorop blijft lopen in technologie. Bijvoorbeeld, na 2026 zouden Blackwell Ultra-chips of verbeterde Grace CPU’s geïntroduceerd kunnen worden, wat de clusterprestaties verder zal verhogen. Door de co-evolutie van hardware en infrastructuur is de AI-industrie klaar om de komende tijd een snelle groei te handhaven, en de nauwe samenwerking tussen NVIDIA en OpenAI staat op het punt om een aanzienlijke invloed uit te oefenen op de gehele industrie.
Conclusie: Het nieuwe tijdperk van AI-innovatie ontketend door NVIDIA Blackwell en Stargate
De komst van de NVIDIA Blackwell-gebaseerde GB200 heeft een nieuwe mijlpaal in AI-hardware gevestigd, en de integratie ervan met het Stargate-project staat op het punt om het volledige potentieel te ontsluiten. Dit project – waarin ’s werelds toonaangevende AI-chips samenkomen met ongekende niveaus van kapitaal en infrastructuur – wordt niet alleen verwacht om massale datacenters te bouwen, maar ook om een paradigmaswitch in AI-innovatie teweeg te brengen. Met NVIDIA’s jarenlange expertise, de hechte samenwerking met OpenAI en de sterke reputatie van beide bedrijven in de industrie, is er enorm veel vertrouwen in het succes van dit ultraschaal AI-systeem.
Natuurlijk gaan enorme projecten zoals deze gepaard met hun eigen uitdagingen. Vroege rapporten over thermische problemen in op Blackwell gebaseerde systemen benadrukken bijvoorbeeld de mogelijkheid van onvoorziene obstakels bij de invoering van nieuwe technologie. Daarnaast moeten duurzaamheidskwesties met betrekking tot het energieverbruik en de warmte die door honderden duizenden AI-chips wordt gegenereerd, worden aangepakt. Desalniettemin werken NVIDIA, OpenAI en andere spelers in de industrie actief aan verdere technologische vooruitgang en innovaties in infrastructuur om deze uitdagingen te overwinnen.
Zodra de Stargate-infrastructuur – bestaande uit honderden duizenden NVIDIA Blackwell GPU’s – volledig operationeel is, zullen we een nieuw tijdperk aanschouwen waarin de snelheid en capaciteit van AI-modeltraining en inferentie ongeëvenaard zullen zijn. Dit zal leiden tot een aanzienlijke toename in het gebruik van AI in diverse industrieën, wat innovatieve diensten en producten stimuleert op gebieden zoals autonoom rijden, gezondheidszorg, financiën en productie. De convergentie van NVIDIA Blackwell en het Stargate-project is een mijlpaal in de AI-geschiedenis en versnelt het tempo van AI-ontwikkeling naar ongekende hoogten. Terwijl we de voortgang en resultaten van dit kolossale project blijven volgen, is het van groot belang nauwlettend in de gaten te houden hoe deze AI-infrastructuur de toekomst van de mensheid zal transformeren. Het Stargate-project en de inspanningen van NVIDIA om de grenzen van AI te verleggen, bereiden ons voor op het volgende hoofdstuk in de AI-revolutie.
Veelgestelde vragen (FAQ)
Wat is het Stargate-project?
Het Stargate-project is een ultraschaal AI-datacenterinitiatief dat in 2025 werd gelanceerd om te voldoen aan de explosieve vraag naar AI-rekenkracht van OpenAI. Gezamenlijk geïnvesteerd door SoftBank, OpenAI, Oracle en het investeringsbedrijf MGX uit Abu Dhabi – waarbij SoftBank de financiële ondersteuning verzorgt en OpenAI de leiding neemt – zal het project massale datacentercampussen bouwen op verschillende locaties in de VS. Het eerste campus is in aanbouw in Abilene, Texas, en het gehele project, met een waarde van $500 miljard, vertegenwoordigt een ongekend niveau van investering in één initiatief. Deze strategische inspanning is gericht op het versterken van het Amerikaanse AI-leiderschap en het ondersteunen van de ontwikkeling van AGI.
Wat is de NVIDIA Blackwell GB200 en hoe krachtig is deze?
Blackwell is NVIDIA’s nieuwste GPU-architectuur die in 2024 werd onthuld. De GB200 verwijst naar een superchip die twee B200 GPU’s integreert met één Grace CPU. De B200 GPU bevat 20,8 miljard transistors, levert tot 20 PFLOPs aan AI-rekenprestaties en is uitgerust met 192GB ultrasnel HBM3E-geheugen. Verbonden via een aangepaste interconnect met een bandbreedte van 10TB/s tussen de chiplets, en voorzien van 6e generatie Tensor Cores en 2e generatie Transformer Engines, biedt de Blackwell GB200 bijna vijf keer de inferentiesnelheid en vier keer de geheugencapaciteit van zijn voorganger, de H100 (Hopper). Met 5e generatie NVLink kan deze honderden GPU’s clusteren, wat een ongeëvenaarde schaalbaarheid biedt.
Waarom bouwt OpenAI eigen datacenters naast het gebruik van Azure Cloud?
Ondanks dat zij massale cloudresources ontvangen van Microsoft Azure, heeft het explosieve succes van ChatGPT geleid tot een exponentiële toename van de rekenbehoefte, die uiteindelijk de schaal en flexibiliteit van Azure kan overtreffen, terwijl de kosten ook kunnen stijgen. Met het Stargate-project streeft OpenAI ernaar om een eigen, toegewijde AI-infrastructuur te waarborgen voor grootschalige berekeningen en de afhankelijkheid van Azure te verminderen. Bovendien biedt het bezitten van verspreide datacenters in de VS voordelen op het gebied van datasoevereiniteit en beveiliging. Deze strategie verbetert niet alleen de controle over data en infrastructuur, maar zal naar verwachting ook de langetermijnkosten voor cloudgebruik verlagen. OpenAI zal blijven samenwerken met Azure als onderdeel van een dubbele aanpak.
Wie zijn de concurrenten van NVIDIA Blackwell?
Op de huidige markt voor AI-versnellers behoren belangrijke concurrenten die NVIDIA uitdagen tot onder meer AMD en Google. AMD streeft naar concurrentie met datacenter GPU’s zoals de MI300, en Google maakt gebruik van zijn eigen TPU’s voor grootschalige AI-berekeningen. Veel branche-experts – waaronder figuren als Elon Musk – hebben echter verklaard dat “er op dit moment niets beter is dan NVIDIA-hardware”, wat de dominante prestaties van Blackwell weerspiegelt. NVIDIA’s uitgebreide sterke punten op het gebied van hardware, het CUDA-ecosysteem, softwareoptimalisaties en interconnectietechnologieën zoals NVLink zorgen ervoor dat de Blackwell-architectuur de leider blijft op het gebied van AI-training en inferentie-infrastructuur in de nabije toekomst. Bovendien versterken Amerikaanse overheidsbeleid dat de export van baanbrekende AI-chips reguleert, met name met betrekking tot China, de concurrentiepositie van NVIDIA.
Bronnen en referenties:
- OpenAI officiële blogaankondiging (21 januari 2025)
- DatacenterDynamics nieuwsartikel (27 februari 2025)
- Bloomberg rapport (Rachel Metz et al., 6 maart 2025)
- NVIDIA GTC 2024 keynote en technische documenten (samengevat van TechPowerUp, etc.)
- Entrepreneur/Bloomberg interview (4 oktober 2024)
- NVIDIA officiële website: https://www.nvidia.com/en-us/
- NVIDIA GTC-pagina: https://www.nvidia.com/en-us/gtc/
- OpenAI Blog: https://openai.com/blog/
- DatacenterDynamics: https://www.datacenterdynamics.com/
- Bloomberg Technology: https://www.bloomberg.com/technology
- TechPowerUp: https://www.techpowerup.com/