2025 NVIDIA Blackwell leder Stargate-projektet: En ny era av AI-innovation

NVIDIA Blackwell leder Stargate-projektet: En ny era av AI-innovation

Introduktion: Uppkomsten av ett nytt AI-paradigm

NVIDIAs senaste AI-chiparkitektur, Blackwell, har valts som kärnmotorn för det ultrastora AI-infrastrukturprojektet Stargate. Detta banbrytande projekt, som drivs av investeringar på totalt 500 miljarder dollar (ungefär 720 biljoner KRW) från OpenAI, Oracle, SoftBank och Abu Dhabis AI-investeringsföretag MGX, syftar till att bygga enorma datacenterkomplex över hela USA under de kommande fyra åren. I hjärtat av denna infrastruktur ligger den NVIDIA Blackwell-baserade GB200 GPU:n. Blackwell hyllas som en revolutionerande förändrare inom AI-träning och inferens, med upp till en femdubbling i AI-beräkningsprestanda och en banbrytande utvidgning av minnet jämfört med tidigare generationer. Samtidigt, efter ChatGPT-fenomenet 2023, ökade efterfrågan på ultrastora AI-modeller världen över, vilket tvingade globala molninfrastrukturer att hantera brist på AI-beräkningsresurser. För att möta denna utmaning och befästa AI:s dominans har OpenAI och dess partnerföretag initierat massiva investeringar – och lanserat projekt som Stargate. Genom att möta denna enorma efterfrågan med sin Blackwell-arkitektur spelar NVIDIA en avgörande roll i AI-innovationen. Detta inlägg ger en djupgående undersökning av egenskaperna hos NVIDIA Blackwell-arkitekturen, skalan och betydelsen av Stargate-projektet samt de globala marknadstransformationer det är berett att utlösa.

För ytterligare insikter om NVIDIAs senaste GTC-annonseringar, kolla in vår detaljerade artikel om NVIDIA GTC.

NVIDIA Blackwell: Kraften hos nästa generations AI-chip

Avslöjad 2024 är NVIDIAs Blackwell den senaste AI GPU-arkitekturen som kan skryta med branschledande prestanda och teknologisk innovation. Med utgångspunkt i framsteg från tidigare generationer såsom Volta, Ampere och Hopper, representerar Blackwell den femte generationen av AI-chip.

I mars 2024, under GTC-keynoten, presenterade NVIDIAs VD Jensen Huang den nya Blackwell GPU:n (till vänster) tillsammans med den föregående generationens Hopper GPU (till höger).

Bland Blackwell-serien utmärker sig toppmodellen B200 GPU som det största chipet hittills, bestående av över 20,8 miljarder transistorer. Den har en innovativ design som förenar två massiva chiplets till en enda operationell enhet. Som ett resultat uppnår Blackwell B200 en häpnadsväckande 20 petaflops (PFLOPs) i AI-beräkningsprestanda på ett enda chip, optimerat för banbrytande AI-arbetsbelastningar såsom stora språkmodeller (LLM) genom sina 6:e generationens Tensor Cores och 2:a generationens Transformer Engines. Dessutom är varje B200 GPU utrustad med 192GB ultrasnabbt HBM3E-minne, vilket fyrdubblar minneskapaciteten jämfört med sina föregångare och levererar en bandbredd på 8TB/s för att hantera enorma datamängder i realtid.

En särskilt anmärkningsvärd egenskap hos Blackwell-arkitekturen är dess stöd för nästa generations NVLink-anslutning. Med 5:e generationens NVLink kan tiotals GPU:er inom en enda server klustras för att fungera som en gigantisk GPU. Genom att använda dedikerade NVLink-switchar är det möjligt att koppla ihop upp till 576 GPU:er med ultrasnabba hastigheter, vilket bildar ett enormt beräkningsområde. Konstruktioner såsom NVL72, implementerade i system baserade på Blackwell, kan kombinera 72 GPU:er som en enda nod, vilket möjliggör realtidsinferens på modeller med mer än en biljon parametrar. Tack vare denna skalbarhet möjliggör användningen av Blackwell GPU:er byggandet av AI-superdatorer i en mycket större skala än tidigare, samtidigt som flaskhalsar i dataöverföringen mellan GPU:er minimeras för att maximera träningseffektiviteten.

Dessutom har NVIDIA introducerat en integrerad modul – GB200 Superchip – som direkt kopplar samman Blackwell GPU:n med NVIDIAs server-CPU, Grace, via hög-hastighetslänkar. GB200-modulen kombinerar två B200 GPU:er med en Grace CPU som är sammankopplad med NVLink, vilket möjliggör mycket snabbare dataöverföring mellan CPU och GPU än med PCIe och minskar flaskhalsar under storskalig distribuerad träning. Grace CPU:n, baserad på ARM-arkitektur, är designad för hög bandbredd vid minnesåtkomst och är optimerad att arbeta i tandem med NVIDIAs GPU:er, med teknik som bevisats i GH200 (Grace-Hopper) Superchip. Sammanfattningsvis höjer Blackwell-arkitekturen inte bara hårdvaruprestandan utan även den övergripande effektiviteten i systemarkitekturen, vilket tar skalbarheten hos AI-infrastrukturen till en ny nivå.

Viktiga tekniska funktioner hos Blackwell B200/GB200:

  • Ultrastor chipletstruktur: En GPU bestående av 20,8 miljarder transistorer spridda över två chiplets, det största chipet som finns tillgängligt.
  • Enorm minneskapacitet: Utrustad med 192GB HBM3E-minne som levererar en bandbredd på 8TB/s för att hantera stora datamängder i realtid.
  • Exponentiell beräkningsprestanda: Uppnår 20 PFLOPs i AI-beräkningar, optimerad för LLM:er med stöd för extremt låg precision FP4/FP8-operationer.
  • Skalbar arkitektur: Utnyttjar 5:e generationens NVLink för att koppla samman upp till 576 GPU:er, med konfigurationer såsom NVL72 som stödjer massiva klusteruppsättningar.
  • CPU-GPU-integrering: GB200 Superchip-konfigurationen med Grace CPU minimerar flaskhalsar mellan CPU och GPU.
  • Tillförlitlighet och säkerhet: Förbättrad genom dedikerade RAS-motorer och teknik för konfidentiell databehandling.

Tack vare dessa imponerande specifikationer har Blackwell GPU:n fångat marknadens uppmärksamhet omedelbart vid lanseringen, vilket drivit på rekordtillväxten i NVIDIAs datacenterintäkter. Faktum är att NVIDIA uppnådde en ökning på 142% år över år i datacenterintäkterna för räkenskapsåret 2025, med en total intäkt på 115,2 miljarder dollar, där försäljningen av nya Blackwell-chip ensam stod för 11 miljarder dollar under Q4 2025 (oktober–december) – den snabbaste produktförsäljningstillväxten i företagets historia. NVIDIAs CFO Colette Kress uttalade: “Blackwell antas i en aldrig tidigare skådad takt och skala i vår historia, och med dess integration kommer byggandet av kluster med 100 000 GPU:er snart att bli vardag.” Således positioneras intåget av Blackwell som en revolutionerande förändring som snabbt kommer att omvandla AI-beräkningsindustrin.

Stargate-projektet: Gryningen av ultrastor AI-infrastruktur

Stargate-projektet, som tillkännagavs i januari 2025, är ett initiativ för ultrastora AI-datacenter utformat för att möta den explosiva efterfrågan på AI-beräkningskraft från OpenAI. Lanserat som ett joint venture av SoftBank-ordförande Son Jeong-ui, OpenAI, Oracle och Abu Dhabis investeringsföretag MGX – där SoftBank står för det finansiella stödet och OpenAI leder verksamheten – är detta projekt oöverträffat i skala, med en total investering på 500 miljarder dollar. Omedelbart efter tillkännagivandet injicerades initialt 100 miljarder dollar, vilket satte igång byggandet av det första datacenterkomplexet. Den amerikanska regeringen har också uppmärksammat detta; under ett evenemang i Vita huset deklarerade president Donald Trump: “Vi kommer att bygga världens mest kraftfulla AI-system i Amerika,” vilket uttryckte fullt stöd för Stargate. Denna strategiska investering syftar till att överträffa konkurrerande nationer som Kina i AI-vapenkapplöpningen.

Det första datacenterkomplexet under Stargate-projektet är beläget i Abilene, Texas, med markförberedelser och byggnation pågående sedan andra halvan av 2024. Rapporter indikerar att detta campus så småningom kommer att omfatta mellan 10 och 20 separata datacenterbyggnader, uppförda i faser, vilket gör det till världens största AI-superdatorcenter när det är färdigställt. Larry Ellison, Oracle-ordförande, har på plats nämnt att “tio datacenter redan är under konstruktion,” medan OpenAI enligt uppgift utvärderar ytterligare platser i 16 amerikanska delstater. Varje campus planeras som en enorm anläggning som förbrukar gigawatt (GW) av kraft; med bara 5–10 campus kommer en kolossal beräkningsinfrastruktur över flera GW att etableras.

Det unika med Stargate-projektet ligger inte bara i den fysiska skalan på dess datacenter utan även i den kvalitativa nivån på AI-beräkningskraften de kommer att hysa. OpenAI och dess partners planerar att investera världens bästa AI-beräkningskapaciteter i denna enorma infrastruktur, som kommer att användas för att träna och driva nästa generations GPT-modeller. I detta syfte kommer tiotusentals NVIDIA Blackwell GB200 GPU:er att distribueras över Stargate-datacentren. Marknadsundersökningar tyder på att anläggningen i första fasen i Abilene, Texas, kommer att ha cirka 64 000 NVIDIA GB200-chip installerade och operativa senast vid slutet av 2026. Med tanke på att en enskild Blackwell GPU kostar mellan 30 000 och 40 000 dollar (ungefär 40–50 miljoner KRW), uppskattas hårdvarukostnaden för GPU:er i en anläggning ligga i biljoner KRW. Med framtida campusutvidgningar och ytterligare utveckling av platser är Stargate-projektet på väg att bli den största globala AI-beräkningsinfrastrukturen, med hundratusentals GPU:er distribuerade. De enorma beräkningsresurserna kommer främst att stödja OpenAIs modellträning och inferens och kan även göras tillgängliga för externa företag eller forskningsinstitutioner via Oracles molntjänster. Med tanke på att NVIDIA och Oracle, båda med omfattande erfarenhet av att driva massiva GPU-kluster, kommer att hantera denna infrastruktur, förväntas en hög tillförlitlighet i driften och nyttjandet av ett sådant ultrastort system.

Varför distribuerar Stargate-projektet NVIDIA Blackwell GB200 i stor skala?

Varför valde Stargate-projektet att distribuera den NVIDIA Blackwell-baserade GB200 i sådan skala? Svaret ligger i Blackwells förmåga att erbjuda den mest kraftfulla och skalbara AI-hårdvaruplattformen som finns tillgänglig idag. OpenAIs nästa generations modeller består av hundratals miljarder till biljoner parametrar, vilket kräver GPU:er som kan hantera enorma beräkningsbelastningar. Som tidigare nämnts uppnår Blackwell B200/GB200 upp till en femdubbling i prestanda jämfört med den tidigare Hopper (H100)-generationen, med fyrdubblad GPU-minneskapacitet, vilket gör det enklare att ladda in hela stora modeller i GPU-minnet. Detta möjliggör effektiv träning av större batcher och djupare modeller – vilket förbättrar träningseffektiviteten för ultrastora modeller.

Vidare kan införandet av FP8- och FP4-lågprecisionsoperationer tillsammans med förbättrade optimeringar av transformeroperationer i Blackwell-arkitekturen dramatiskt öka inferenshastigheten för storskaliga språkmodeller såsom ChatGPT. Till exempel kan servrar baserade på Blackwell bearbeta tiotusentals tokens per sekund, vilket avsevärt minskar latensen i realtidsbaserade konversations-AI-tjänster och sänker driftskostnaderna. Även om OpenAI utvecklar en nästa generations modell som är långt större än GPT-4, förväntas en infrastruktur bestående av tiotusentals Blackwell GPU:er kunna stödja den tillräckligt. Enligt NVIDIAs tillkännagivande visade en NVL72-nod bestående av 72 Blackwell GPU:er över 30 gånger bättre realtidsinferensprestanda jämfört med de befintliga 8-GPU DGX-servrarna, vilket innebär en betydande minskning av antalet fysiska servrar som krävs för storskalig modellutplacering. Med andra ord kommer distributionen av Blackwell i Stargate att minska antalet servrar som behövs för motsvarande beräkningsuppgifter, vilket förbättrar energieffektiviteten och platsutnyttjandet samt i slutändan sänker driftskostnaderna.

Stöd från banbrytande nätverksteknologier såsom NVIDIA Spectrum-X är en annan kritisk faktor som driver den storskaliga adoptionen av Blackwell i Stargate. I dessa ultrastora GPU-kluster har kommunikationen mellan GPU:er en avgörande inverkan på den totala systemprestandan. NVIDIA, tillsammans med lanseringen av Blackwell, introducerade sin högpresterande Ethernet-teknologi Spectrum-X, som erbjuder en optimerad nätverkslösning för massiva AI-kluster. NVIDIA har meddelat att de kommer att leverera denna Spectrum-X nätverksplattform till de första datacentren i Stargate-projektet. Detta kommer att minimera kommunikationslatensen mellan GPU:er och, i kombination med NVLink-switchar, möjliggöra bildandet av ett ultrasnabbt AI-nätverk som kopplar samman tiotusentals GPU:er. Den totala helhetslösningen som NVIDIA tillhandahåller är en betydande fördel för Stargate. Kort sagt, det är den omfattande kombinationen av topprestanda, anmärkningsvärd skalbarhet och effektiv storskalig drift – förkroppsligad i Blackwell GB200-plattformen – som har gjort den till det självklara valet som kärnan i Stargate-projektet.

Global påverkan på AI-industrin och framtida utsikter

Användningen av NVIDIA Blackwell i Stargate-projektet har betydande implikationer för den globala AI-industrin. För det första symboliserar detta fall den snabba expansionen i skalan på investeringar i AI-infrastruktur. Tidigare investerade enskilda företag eller institutioner miljarder dollar i AI-infrastruktur, men nu utvecklas landskapet mot megaprojekt som involverar konsortier med investeringar på hundratals miljarder dollar, vilket Stargate tydligt demonstrerar. NVIDIAs VD Jensen Huang har beskrivit dessa enorma AI-datacenter som “AI-fabriker” och betonat att de kommer att ligga i centrum av den nästa industriella revolutionen. Detta signalerar att konkurrensen inom AI-modellutveckling har blivit en kamp mellan ultrastora aktörer, där de som saknar enormt kapital och teknologi riskerar att hamna på efterkälken. Faktum är att vissa branschexperter till och med har spekulerat i att Samsung kan gå med i Stargate, vilket potentiellt skulle bilda en annan stor AI-allians – ett tydligt exempel på den disruptiva effekten av tillkännagivandet. Följaktligen förväntas andra globala teknikjättar accelerera sina egna ansträngningar att bygga AI-superdatorer. Microsoft, Google, Meta och till och med kinesiska statligt ägda företag expanderar redan eller planerar att utöka sina datacenter med tiotusentals GPU:er. Startups som CoreWeave i USA har också börjat säkra över 250 000 GPU:er för att utmana marknaden för AI-molntjänster. För att möta denna explosiva efterfrågan på Blackwell GPU:er ökar NVIDIA produktionen, och om denna trend fortsätter förväntas företagets dominerande position på AI-halvledarmarknaden förbli intakt under överskådlig framtid.

Framstegen i Stargate-projektet är också beredda att accelerera innovationen över hela datacenterindustrin. Datacenterkomplex med en kapacitet på 1GW kommer att medföra nya tekniska utmaningar vad gäller strömförsörjning, kylning och nätverk. Till exempel kan innovativa storskaliga vätskekylningssystem eller avancerade luftkonditioneringssystem införas för att effektivt hantera värmeutvecklingen från hundratusentals högpresterande GPU:er. Stabil strömförsörjning kommer att säkerställas genom att integrera förnybar energiproduktion, energilagringssystem och högspänningslikströms (HVDC) eldistribution med hjälp av den senaste eltekniken. I slutändan kommer dessa framsteg att driva utvecklingen av datacenterteknologier framåt, vilket gynnar inte bara AI utan även allmänna molntjänster. Dessutom förväntas byggandet av omfattande AI-infrastruktur i USA ha en positiv inverkan på lokala ekonomier genom att stimulera regional ekonomisk aktivitet och skapa högteknologiska jobb. Redan nu anställs hundratals personer för att driva datacenter i Abilene-regionen, och varje nytt campus beräknas skapa tusentals nya arbetstillfällen.

Ur ett teknologiskt perspektiv skulle intåget av ultrastora kluster som Stargate kunna fundamentalt förändra paradigmet för AI-forskning och utveckling. Medan tidigare ansträngningar fokuserade på att övervinna modellbegränsningar genom algoritmoptimering och distribuerade inlärningstekniker, möjliggör nu lättnaden av hårdvarubegränsningar den direkta implementeringen och experimenterandet med modeller med ett aldrig tidigare skådat antal parametrar. Detta kan slutligen föra oss ett steg närmare att uppnå AGI (Artificiell Allmän Intelligens) och lägga grunden för ett kvantsprång i AI-modellernas prestanda. Forskare vid OpenAI och andra kan snart få möjlighet att påbörja massiva projekt som tidigare var otänkbara, vilket banar väg för vetenskapliga genombrott och lösningar på komplexa problem med hjälp av AI.

De kommande åren kommer att kräva noggrann uppmärksamhet på framstegen hos NVIDIA och Stargate-projektet. NVIDIA har redan tillkännagivit planer för sitt nästa generationschip – Blackwell Ultra – samt efterföljande arkitekturer (med kodnamnet Vera Rubin), vilket skisserar en färdplan för exponentiell tillväxt i AI-beräkningskraft. På samma sätt förväntas Stargate, efter lanseringen av sitt första campus, gradvis utvidga med ytterligare campus och färdigställa sin infrastruktur inom fyra år. Under denna process kommer den initialt Blackwell-baserade utrustningen successivt att ersättas eller kompletteras med nästa generations uppgraderingar, vilket säkerställer att den utvecklande AI-infrastrukturen förblir i teknikens framkant. Till exempel kan Blackwell Ultra-chip eller förbättrade Grace CPU:er introduceras efter 2026, vilket ytterligare boostar klusterprestandan. Genom samskapande av hårdvara och infrastruktur är AI-industrin på väg att bibehålla en snabb tillväxt under överskådlig framtid, och det nära samarbetet mellan NVIDIA och OpenAI är berett att utöva ett betydande inflytande över industrin.

Slutsats: En ny era av AI-innovation frigjord av NVIDIA Blackwell och Stargate

Intåget av den NVIDIA Blackwell-baserade GB200 har etablerat en ny milstolpe inom AI-hårdvara, och dess integration med Stargate-projektet är beredd att låsa upp dess fulla potential. Detta projekt – där världens ledande AI-chip möter en aldrig tidigare skådad nivå av kapital och infrastruktur – förväntas inte bara bygga massiva datacenter, utan också utlösa ett paradigmskifte inom AI-innovationen. Med NVIDIAs åratal av expertis, det djupa samarbetet med OpenAI och det starka rykte som båda företagen har i industrin, finns det ett stort förtroende för framgången med detta ultrastora AI-system.

Naturligtvis medför enorma projekt som detta sina egna utmaningar. Tidiga rapporter om termiska problem i Blackwell-baserade system understryker exempelvis möjligheten till oförutsedda hinder i samband med införandet av ny teknologi. Dessutom måste hållbarhetsfrågor relaterade till energiförbrukningen och den värme som genereras av hundratusentals AI-chip åtgärdas. Icke desto mindre arbetar NVIDIA, OpenAI och andra aktörer inom industrin aktivt med att driva vidare teknologiska framsteg och innovationslösningar för infrastruktur för att övervinna dessa utmaningar.

När Stargate-infrastrukturen – bestående av hundratusentals NVIDIA Blackwell GPU:er – blir fullt operativ, kommer vi att bevittna en ny era där hastigheten och kapaciteten hos AI-modellträning och inferens blir oöverträffade. Detta kommer att leda till en betydande ökning av AI-användningen över olika industrier, vilket sporrar fram innovativa tjänster och produkter inom områden som autonom körning, hälso- och sjukvård, finans och tillverkning. Sammankopplingen mellan NVIDIA Blackwell och Stargate-projektet är en milstolpe i AI-historien, och accelererar takten för AI-utvecklingen till aldrig tidigare skådade nivåer. När vi fortsätter att följa framstegen och resultaten av detta kolossala projekt blir det avgörande att noggrant övervaka hur denna AI-infrastruktur kommer att transformera mänsklighetens framtid. Stargate-projektet och NVIDIAs strävan att driva AI-frontlinjer framåt förbereder oss för nästa kapitel i AI-revolutionen.

Vanliga frågor (FAQ)

Vad är Stargate-projektet?

Stargate-projektet är ett initiativ för ultrastora AI-datacenter som lanserades 2025 för att stödja den explosiva efterfrågan på AI-beräkningskraft från OpenAI. Projektet, som gemensamt investeras i av SoftBank, OpenAI, Oracle och investeringsföretaget MGX från Abu Dhabi – där SoftBank står för det finansiella stödet och OpenAI leder verksamheten – kommer att bygga massiva datacenterkomplex på olika platser i USA. Det första campus är under konstruktion i Abilene, Texas, och hela projektet, med ett värde på 500 miljarder dollar, representerar en aldrig tidigare skådad nivå av investering i ett enda initiativ. Denna strategiska satsning syftar till att befästa USA:s ledarskap inom AI och stödja utvecklingen av AGI.

Vad är NVIDIA Blackwell GB200, och hur kraftfull är den?

Blackwell är NVIDIAs senaste GPU-arkitektur som avslöjades 2024. GB200 avser ett superchip som integrerar två B200 GPU:er med en Grace CPU. B200 GPU:n innehåller 20,8 miljarder transistorer, levererar upp till 20 PFLOPs i AI-beräkningsprestanda och är utrustad med 192GB ultrasnabbt HBM3E-minne. Den är sammankopplad via en anpassad interconnect med en bandbredd på 10TB/s mellan chiplets, och med sina 6:e generationens Tensor Cores och 2:a generationens Transformer Engines erbjuder Blackwell GB200 nästan fem gånger högre inferenshastighet och fyra gånger större minneskapacitet än dess föregångare, H100 (Hopper). Med 5:e generationens NVLink kan den klustra ihop hundratals GPU:er, vilket ger oöverträffad skalbarhet.

Varför bygger OpenAI egna datacenter utöver att använda Azure Cloud?

Trots att de får massiva molnresurser från Microsoft Azure har den explosiva framgången med ChatGPT lett till en exponentiell ökning av beräkningsbehov som så småningom kan överstiga vad Azure kan erbjuda i både skala och flexibilitet, samtidigt som kostnaderna potentiellt kan öka. Genom Stargate-projektet siktar OpenAI på att säkra sin egen dedikerade AI-infrastruktur för att stödja storskaliga beräkningar och minska beroendet av Azure. Dessutom ger ägandet av distribuerade datacenter över hela USA fördelar vad gäller datasuveränitet och säkerhet. Denna strategi förbättrar inte bara kontrollen över data och infrastruktur utan förväntas även sänka de långsiktiga molnkostnaderna. OpenAI kommer att fortsätta samarbeta med Azure som en del av en dubbelsidig strategi.

Vilka är konkurrenterna till NVIDIA Blackwell?

På den nuvarande marknaden för AI-acceleratorer är de stora konkurrenterna som utmanar NVIDIA bland annat AMD och Google. AMD konkurrerar med datacenter-GPU:er som MI300, medan Google använder sina egna proprietära TPU:er för storskalig AI-beräkning. Många branschexperter – inklusive personer som Elon Musk – har dock uttalat att “det finns inget bättre än NVIDIAs hårdvara just nu”, vilket speglar Blackwells dominerande prestanda. NVIDIAs omfattande styrkor inom hårdvara, deras CUDA-ekosystem, mjukvaruoptimeringar och interkonnekteknologier som NVLink säkerställer att Blackwell-arkitekturen förblir ledande inom AI-träning och inferens under överskådlig framtid. Dessutom stärker amerikanska regeringspolicys som reglerar exporten av banbrytande AI-chip, särskilt med avseende på Kina, ytterligare NVIDIAs konkurrensposition.

Källor och referenser:

  • OpenAI officiella bloggtillkännagivande (21 januari 2025)
  • DatacenterDynamics nyhetsartikel (27 februari 2025)
  • Bloomberg-rapport (Rachel Metz m.fl., 6 mars 2025)
  • NVIDIA GTC 2024 Keynote och tekniska dokument (sammanfattat från TechPowerUp, etc.)
  • Entrepreneur/Bloomberg-intervju (4 oktober 2024)
  1. NVIDIA officiella webbplats: https://www.nvidia.com/en-us/
  2. NVIDIA GTC-sida: https://www.nvidia.com/en-us/gtc/
  3. OpenAI-bloggen: https://openai.com/blog/
  4. DatacenterDynamics: https://www.datacenterdynamics.com/
  5. Bloomberg Technology: https://www.bloomberg.com/technology
  6. TechPowerUp: https://www.techpowerup.com/
Rulla till toppen