2025 NVIDIA Blackwell guida il progetto Stargate: Una nuova era di innovazione AI



NVIDIA Blackwell guida il progetto Stargate: Una nuova era di innovazione AI

Introduzione: L’emergere di un nuovo paradigma AI

L’ultima architettura di chip AI di NVIDIA, Blackwell, è stata scelta come motore centrale per il progetto di infrastruttura AI su scala ultra, Stargate. Questo progetto rivoluzionario, sostenuto da investimenti per un totale di 500 miliardi di dollari (circa 720 trilioni di KRW) da parte di OpenAI, Oracle, SoftBank e della società di investimenti AI di Abu Dhabi, MGX, mira a costruire enormi campus di data center in tutti gli Stati Uniti nei prossimi quattro anni. Al cuore di questa infrastruttura si trova la GPU GB200 basata su NVIDIA Blackwell. Blackwell è celebrata come una svolta decisiva nella formazione e nell’inferenza AI, offrendo un miglioramento fino a cinque volte superiore nelle prestazioni computazionali AI e un’espansione rivoluzionaria della memoria rispetto alle generazioni precedenti. Nel frattempo, a seguito del fenomeno ChatGPT nel 2023, la domanda per modelli AI ultra-grandi è esplosa in tutto il mondo, portando le infrastrutture cloud globali ad affrontare carenze di risorse computazionali AI. Per affrontare questa sfida e rafforzare la supremazia dell’AI, OpenAI e le sue aziende partner hanno avviato investimenti massicci, lanciando progetti come Stargate. NVIDIA, soddisfacendo questa enorme domanda con la sua architettura Blackwell, sta giocando un ruolo fondamentale nell’innovazione AI. Questo articolo fornisce un’analisi approfondita delle caratteristiche dell’architettura NVIDIA Blackwell, della scala e del significato del progetto Stargate e delle trasformazioni del mercato globale che è destinato a innescare.

Per ulteriori approfondimenti sugli ultimi annunci di GTC di NVIDIA, consulta il nostro articolo dettagliato su NVIDIA GTC.

NVIDIA Blackwell: La potenza dei chip AI di nuova generazione

Svelata nel 2024, Blackwell di NVIDIA è l’ultima architettura GPU per AI che vanta prestazioni leader nel settore e innovazione tecnologica. Basandosi sui progressi delle generazioni precedenti come Volta, Ampere e Hopper, Blackwell rappresenta la quinta generazione di chip AI.

Nel marzo 2024, durante il keynote GTC, l’amministratore delegato di NVIDIA, Jensen Huang, ha presentato la nuova GPU Blackwell (a sinistra) accanto alla GPU Hopper della generazione precedente (a destra).

Tra la serie Blackwell, la GPU di fascia alta B200 si distingue come il chip più grande ad oggi, composto da oltre 20,8 miliardi di transistor. Essa presenta un design innovativo che unifica due enormi chiplet in un’unica unità operativa. Di conseguenza, la B200 Blackwell raggiunge la sorprendente cifra di 20 petaflops (PFLOPs) di prestazioni computazionali AI su un singolo chip, ottimizzata per carichi di lavoro AI all’avanguardia come i grandi modelli linguistici (LLM) grazie ai Tensor Cores di sesta generazione e ai Transformer Engines di seconda generazione. Inoltre, ogni GPU B200 è dotata di 192GB di memoria HBM3E ultra-veloce, quadruplicando la capacità di memoria dei suoi predecessori e fornendo una larghezza di banda di 8TB/s per gestire enormi dataset in tempo reale.

Una caratteristica particolarmente notevole dell’architettura Blackwell è il suo supporto per la prossima generazione di interconnessione NVLink. Con la NVLink di quinta generazione, decine di GPU all’interno di un singolo server possono essere raggruppate per funzionare come un’unica GPU gigantesca. Utilizzando switch NVLink dedicati, è possibile collegare fino a 576 GPU a velocità ultra elevate, formando un enorme dominio di calcolo. Strutture come NVL72, implementate in sistemi basati su Blackwell, possono combinare 72 GPU in un unico nodo, consentendo inferenze in tempo reale su modelli con più di un trilione di parametri. Grazie a questa scalabilità, l’uso delle GPU Blackwell permette la costruzione di supercomputer AI su scala molto più ampia rispetto al passato, riducendo al minimo i colli di bottiglia nel trasferimento dei dati tra le GPU per massimizzare l’efficienza dell’addestramento.

Inoltre, NVIDIA ha introdotto un modulo integrato – il GB200 Superchip – che collega direttamente la GPU Blackwell con la CPU server di NVIDIA, Grace, tramite collegamenti ad alta velocità. Il modulo GB200 raggruppa due GPU B200 con una CPU Grace connessa tramite NVLink, facilitando il trasferimento dei dati tra CPU e GPU molto più rapidamente rispetto al PCIe e riducendo i colli di bottiglia durante l’addestramento distribuito su larga scala. La CPU Grace, basata sull’architettura ARM, è progettata per un accesso a memoria ad alta larghezza di banda ed è ottimizzata per lavorare in tandem con le GPU NVIDIA, sfruttando la tecnologia collaudata nel Superchip GH200 (Grace-Hopper). In sintesi, l’architettura Blackwell eleva non solo le prestazioni hardware, ma anche l’efficienza complessiva dell’architettura del sistema, portando la scalabilità dell’infrastruttura AI a un nuovo livello.

Caratteristiche Tecniche Chiave del Blackwell B200/GB200:

  • Struttura a chiplet ultra-grande: Una GPU composta da 20,8 miliardi di transistor distribuiti su due chiplet, il chip più grande disponibile.
  • Capacità di memoria massiccia: Dotata di 192GB di memoria HBM3E che fornisce una larghezza di banda di 8TB/s per gestire enormi quantità di dati in tempo reale.
  • Prestazioni computazionali esponenziali: Raggiunge 20 PFLOPs nelle operazioni AI, ottimizzata per LLM con supporto per operazioni FP4/FP8 a precisione ultra bassa.
  • Architettura scalabile: Utilizza la NVLink di quinta generazione per collegare fino a 576 GPU, con configurazioni come NVL72 che supportano configurazioni di cluster massicci.
  • Integrazione CPU-GPU: La configurazione GB200 Superchip con CPU Grace minimizza i colli di bottiglia tra CPU e GPU.
  • Affidabilità e sicurezza: Potenziata da motori RAS dedicati e dalla tecnologia di Confidential Computing.

Grazie a queste specifiche impressionanti, la GPU Blackwell ha catturato l’attenzione del mercato immediatamente al momento del lancio, guidando una crescita record dei ricavi del Data Center di NVIDIA. In effetti, NVIDIA ha raggiunto un aumento del 142% anno su anno nei ricavi del Data Center per l’anno fiscale 2025, raggiungendo 115,2 miliardi di dollari, con le vendite dei nuovi chip Blackwell che da sole hanno rappresentato 11 miliardi di dollari nel Q4 2025 (ottobre-dicembre) – la crescita di vendita del prodotto più rapida nella storia dell’azienda. La CFO di NVIDIA, Colette Kress, ha dichiarato: “Blackwell viene adottato ad una velocità e scala senza precedenti nella nostra storia, e con la sua integrazione, la costruzione di cluster da 100.000 GPU diventerà presto una prassi comune.” Così, l’arrivo di Blackwell è posizionato come un punto di svolta che trasformerà rapidamente l’industria del calcolo AI.

Il Progetto Stargate: L’alba dell’infrastruttura AI su ultra-scala

Annunciato nel gennaio 2025, il Progetto Stargate è un’iniziativa di data center AI su ultra-scala progettata per soddisfare la domanda esplosiva di capacità computazionale AI di OpenAI. Lanciato come joint venture dal presidente di SoftBank, Son Jeong-ui, OpenAI, Oracle e dalla società di investimenti MGX di Abu Dhabi – con SoftBank che fornisce il sostegno finanziario e OpenAI che guida le operazioni – questo progetto è senza precedenti in termini di scala, con un investimento complessivo di 500 miliardi di dollari. Immediatamente dopo l’annuncio, sono stati iniettati inizialmente 100 miliardi di dollari, innescando la costruzione del primo campus di data center. Anche il governo degli Stati Uniti ha preso nota; durante un evento alla Casa Bianca, il Presidente Donald Trump ha dichiarato: “Costruiremo il sistema AI più potente del mondo in America,” esprimendo il pieno sostegno per Stargate. Questo investimento strategico mira a superare nazioni concorrenti come la Cina nella corsa agli armamenti AI.

Il primo campus di data center del Progetto Stargate si trova ad Abilene, in Texas, con i lavori di preparazione del sito e la costruzione già in corso dalla seconda metà del 2024. I rapporti indicano che questo campus presenterà eventualmente tra 10 e 20 edifici individuali per data center, costruiti in fasi, rendendolo il più grande centro di supercalcolo AI del mondo una volta completato. Larry Ellison, presidente di Oracle, ha dichiarato sul posto che “dieci data center sono già in costruzione,” mentre OpenAI starebbe valutando ulteriori siti in 16 stati degli Stati Uniti. Ogni campus è progettato come una struttura imponente che consuma gigawatt (GW) di energia; con soli 5–10 campus, verrà realizzata un’infrastruttura di calcolo colossale che si estende per diversi GW.

L’unicità del Progetto Stargate risiede non solo nella scala fisica dei suoi data center, ma anche nel livello qualitativo della potenza computazionale AI che ospiteranno. OpenAI e i suoi partner intendono investire le migliori capacità computazionali AI al mondo in questa enorme infrastruttura, che sarà utilizzata per l’addestramento e il servizio dei modelli GPT di nuova generazione. A tal fine, decine di migliaia di GPU NVIDIA Blackwell GB200 saranno distribuite in tutti i data center Stargate. Ricerche di mercato suggeriscono che la struttura della prima fase ad Abilene, in Texas, avrà installati e operativi circa 64.000 chip NVIDIA GB200 entro la fine del 2026. Considerando che una singola GPU Blackwell costa tra i 30.000 e i 40.000 dollari (circa 40–50 milioni di KRW), il costo hardware per le GPU in una struttura è stimato in trilioni di KRW. Considerando future espansioni dei campus e ulteriori sviluppi dei siti, il Progetto Stargate è destinato a diventare la più grande infrastruttura globale di calcolo AI, con centinaia di migliaia di GPU distribuite. Le vaste risorse computazionali supporteranno principalmente l’addestramento e l’inferenza dei modelli di OpenAI e potrebbero essere messe a disposizione anche di aziende esterne o istituzioni di ricerca tramite i servizi cloud di Oracle. Dato che NVIDIA e Oracle, entrambe con una vasta esperienza nella gestione di cluster GPU massicci, gestiranno questa infrastruttura, si prevede un’elevata affidabilità nel funzionamento e nell’utilizzo di un sistema su scala ultra.

Perché il Progetto Stargate sta distribuendo la NVIDIA Blackwell GB200 su larga scala?

Perché il Progetto Stargate ha scelto di distribuire la GB200 basata su NVIDIA Blackwell su questa scala? La risposta risiede nella capacità di Blackwell di fornire la piattaforma hardware AI più potente e scalabile attualmente disponibile. I modelli di nuova generazione di OpenAI consistono in centinaia di miliardi fino a trilioni di parametri, richiedendo GPU capaci di elaborare enormi carichi computazionali. Come già accennato, la Blackwell B200/GB200 raggiunge un incremento prestazionale fino a cinque volte superiore rispetto alla generazione precedente Hopper (H100), con una capacità di memoria GPU quadruplicata, rendendo più semplice caricare interi modelli di grandi dimensioni nella memoria GPU. Ciò si traduce nella possibilità di addestrare in modo efficiente batch più grandi e modelli più profondi, migliorando l’efficienza dell’addestramento per modelli ultra-grandi.

Inoltre, l’introduzione di operazioni a bassa precisione FP8 e FP4, insieme a ottimizzazioni avanzate per le operazioni dei transformer nell’architettura Blackwell, può aumentare drasticamente la velocità di inferenza dei modelli linguistici su larga scala, come ChatGPT. Ad esempio, i server basati su Blackwell possono elaborare decine di migliaia di token al secondo, riducendo significativamente la latenza nei servizi AI conversazionali in tempo reale e abbassando i costi operativi. Anche se OpenAI dovesse sviluppare un modello di nuova generazione molto più grande di GPT-4, si prevede che un’infrastruttura composta da decine di migliaia di GPU Blackwell lo supporterà adeguatamente. Secondo l’annuncio di NVIDIA, un nodo NVL72 composto da 72 GPU Blackwell ha dimostrato prestazioni di inferenza in tempo reale oltre 30 volte superiori rispetto ai server DGX a 8 GPU esistenti, implicando una sostanziale riduzione del numero di server fisici necessari per il dispiegamento su larga scala dei modelli. In altre parole, distribuendo Blackwell in Stargate si ridurrà il numero di server necessari per compiti computazionali equivalenti, migliorando così l’efficienza energetica e lo spazio disponibile e, in ultima analisi, abbassando i costi operativi.

Il supporto delle tecnologie di rete all’avanguardia, come NVIDIA Spectrum-X, è un altro fattore critico che guida l’adozione su larga scala di Blackwell in Stargate. In questi cluster GPU ultra-grandi, la performance della comunicazione inter-GPU influenza notevolmente la performance complessiva del sistema. NVIDIA, insieme al lancio di Blackwell, ha introdotto la sua tecnologia Ethernet ad alte prestazioni, Spectrum-X, che offre una soluzione di rete ottimizzata per cluster AI massicci. NVIDIA ha annunciato che fornirà questa piattaforma di rete Spectrum-X ai primi data center del Progetto Stargate. Ciò minimizzerà la latenza nella comunicazione tra le GPU e, in combinazione con gli switch NVLink, permetterà la formazione di una rete AI ultra veloce che collega decine di migliaia di GPU. La natura “chiavi in mano” di questa soluzione totale fornita da NVIDIA rappresenta un vantaggio significativo per Stargate. In sintesi, è la combinazione completa di prestazioni top, scalabilità notevole e operazioni efficienti su larga scala – incarnata nella piattaforma Blackwell GB200 – che l’ha resa la scelta ovvia come nucleo del Progetto Stargate.

Impatto Globale sull’Industria AI e Prospettive Future

L’adozione di NVIDIA Blackwell nel Progetto Stargate comporta significative implicazioni per l’industria AI globale. Innanzitutto, questo caso simboleggia l’espansione rapida degli investimenti nell’infrastruttura AI. Mentre in passato singole aziende o istituzioni investivano miliardi di dollari in infrastrutture AI, ora il panorama si sta evolvendo verso megaprogetti che coinvolgono consorzi con investimenti per centinaia di miliardi di dollari, come dimostra Stargate. L’amministratore delegato di NVIDIA, Jensen Huang, ha descritto questi enormi data center AI come “fabbriche di AI” e ha sottolineato che saranno al centro della prossima rivoluzione industriale. Ciò segnala che la competizione nello sviluppo dei modelli AI è diventata una battaglia tra attori ultra-grandi, e coloro che non dispongono di ingenti capitali e tecnologia rischiano di rimanere indietro. In effetti, alcuni esperti del settore hanno persino ipotizzato che Samsung potrebbe unirsi a Stargate, formando potenzialmente un’altra grande alleanza AI, illustrando l’impatto dirompente dell’annuncio. Di conseguenza, ci si aspetta che altri giganti tecnologici globali accelerino i propri sforzi per costruire supercomputer AI. Microsoft, Google, Meta e persino le imprese statali cinesi stanno già espandendo o pianificando di espandere data center con decine di migliaia di GPU. Anche startup come CoreWeave negli Stati Uniti hanno iniziato a mettere in sicurezza oltre 250.000 GPU per sfidare il mercato dei servizi cloud AI. Per far fronte a questa domanda esplosiva di GPU Blackwell, NVIDIA sta aumentando la produzione, e se questa tendenza continuerà, la sua posizione dominante nel mercato dei semiconduttori AI dovrebbe rimanere saldamente consolidata per un certo periodo.

I progressi del Progetto Stargate sono destinati anche a accelerare l’innovazione in tutto il settore dei data center. I campus di data center classificati a 1GW presenteranno nuove sfide tecniche in termini di fornitura di energia, raffreddamento e networking. Ad esempio, potrebbero essere introdotti sistemi di raffreddamento a liquido su larga scala o avanzati sistemi di climatizzazione per gestire efficacemente il calore generato da centinaia di migliaia di GPU ad alte prestazioni. Le forniture di energia stabili saranno garantite integrando la generazione di energia rinnovabile, sistemi di accumulo energetico e la distribuzione di corrente continua ad alta tensione (HVDC), utilizzando infrastrutture elettriche all’avanguardia. In definitiva, questi progressi spingeranno l’evoluzione delle tecnologie dei data center, a beneficio non solo dell’AI, ma anche dei servizi cloud in generale. Inoltre, la costruzione di un’enorme infrastruttura AI negli Stati Uniti dovrebbe avere un impatto positivo sulle economie locali, stimolando l’attività economica regionale e creando posti di lavoro high-tech. Già, centinaia di operatori di data center vengono assunti nella regione di Abilene, e per ogni nuovo campus si prevede la creazione di migliaia di nuovi posti di lavoro.

Dal punto di vista tecnologico, l’avvento di cluster ultra-grandi come Stargate potrebbe cambiare radicalmente il paradigma della ricerca e dello sviluppo in AI. Mentre in passato gli sforzi erano concentrati sul superamento delle limitazioni dei modelli tramite l’ottimizzazione degli algoritmi e tecniche di apprendimento distribuito, l’eliminazione dei vincoli hardware ora consente l’implementazione diretta e la sperimentazione di modelli con un numero di parametri senza precedenti. Ciò potrebbe infine avvicinarci un passo al raggiungimento dell’AGI (Intelligenza Artificiale Generale) e fornire il terreno fertile per un balzo quantico nelle prestazioni dei modelli AI. I ricercatori di OpenAI e di altre istituzioni potrebbero presto essere in grado di intraprendere progetti massicci che prima erano impensabili, aprendo la strada a scoperte scientifiche e alla soluzione di problemi complessi attraverso l’AI.

I prossimi anni richiederanno un’attenzione ravvicinata ai progressi di NVIDIA e del Progetto Stargate. NVIDIA ha già annunciato piani per il suo chip di nuova generazione – Blackwell Ultra – e per architetture successive (con il nome in codice Vera Rubin), delineando una roadmap per una crescita esponenziale della potenza computazionale AI. Allo stesso modo, in seguito al lancio del suo primo campus, si prevede che Stargate espanderà gradualmente ulteriori campus, completando la sua infrastruttura entro quattro anni. In questo processo, l’equipaggiamento inizialmente basato su Blackwell verrà sostituito o integrato progressivamente con aggiornamenti di nuova generazione, garantendo che l’infrastruttura AI in evoluzione rimanga all’avanguardia della tecnologia. Ad esempio, dopo il 2026, potrebbero essere introdotti chip Blackwell Ultra o CPU Grace migliorate, incrementando ulteriormente le prestazioni del cluster. Attraverso la co-evoluzione dell’hardware e dell’infrastruttura, l’industria AI è destinata a sostenere una crescita rapida nel prossimo futuro, e la stretta collaborazione tra NVIDIA e OpenAI è destinata ad avere un’influenza significativa in tutto il settore.

Conclusione: La nuova era dell’innovazione AI scatenata da NVIDIA Blackwell e Stargate

L’avvento della GB200 basata su NVIDIA Blackwell ha stabilito un nuovo punto di riferimento nell’hardware AI, e la sua integrazione con il Progetto Stargate è destinata a sbloccare il suo pieno potenziale. Questo progetto – in cui i chip AI leader a livello mondiale incontrano livelli senza precedenti di capitale e infrastruttura – non solo è destinato a costruire enormi data center, ma anche a innescare un cambiamento di paradigma nell’innovazione AI. Con gli anni di esperienza di NVIDIA, la profonda collaborazione con OpenAI e la solida reputazione che entrambe le aziende detengono nel settore, vi è una grande fiducia nel successo di questo sistema AI su ultra-scala.

Naturalmente, progetti enormi come questo comportano le proprie sfide. I primi rapporti su problemi termici nei sistemi basati su Blackwell, ad esempio, evidenziano la possibilità di ostacoli imprevisti associati all’adozione di nuove tecnologie. Inoltre, devono essere affrontate questioni di sostenibilità relative al consumo di energia e al calore generato da centinaia di migliaia di chip AI. Tuttavia, NVIDIA, OpenAI e altri attori del settore stanno perseguendo attivamente ulteriori progressi tecnologici e innovazioni infrastrutturali per superare queste sfide.

Una volta che l’infrastruttura Stargate – composta da centinaia di migliaia di GPU NVIDIA Blackwell – diventerà completamente operativa, assisteremo a una nuova era in cui la velocità e la capacità di addestramento e inferenza dei modelli AI saranno senza paragoni. Ciò porterà a un sostanziale aumento dell’utilizzo dell’AI in tutti i settori, stimolando servizi e prodotti innovativi in campi quali la guida autonoma, l’assistenza sanitaria, la finanza e la produzione. La convergenza di NVIDIA Blackwell e del Progetto Stargate rappresenta un evento fondamentale nella storia dell’AI, accelerando il ritmo dello sviluppo AI a livelli senza precedenti. Man mano che continueremo a seguire i progressi e i risultati di questo progetto colossale, diventerà imperativo monitorare da vicino come questa infrastruttura AI trasformerà il futuro dell’umanità. Il Progetto Stargate e gli sforzi di NVIDIA nel spingere i confini dell’AI ci preparano per il prossimo capitolo della rivoluzione AI.

Domande Frequenti (FAQ)

Cos’è il Progetto Stargate?

Il Progetto Stargate è un’iniziativa di data center AI su ultra-scala lanciata nel 2025 per supportare la domanda esplosiva di capacità computazionale AI di OpenAI. Investito congiuntamente da SoftBank, OpenAI, Oracle e dalla società di investimenti MGX di Abu Dhabi – con SoftBank che fornisce il sostegno finanziario e OpenAI che guida le operazioni – il progetto costruirà enormi campus di data center in varie località degli Stati Uniti. Il primo campus è attualmente in costruzione ad Abilene, in Texas, e l’intero progetto, valutato 500 miliardi di dollari, rappresenta un livello di investimento senza precedenti in un’unica iniziativa. Questo sforzo strategico mira a rafforzare la leadership degli Stati Uniti nel campo dell’AI e a supportare lo sviluppo dell’AGI.

Cos’è la NVIDIA Blackwell GB200 e quanto è potente?

Blackwell è l’ultima architettura GPU di NVIDIA, svelata nel 2024. La GB200 si riferisce a un superchip che integra due GPU B200 con una CPU Grace. La GPU B200 contiene 20,8 miliardi di transistor, offre fino a 20 PFLOPs di prestazioni computazionali AI ed è dotata di 192GB di memoria HBM3E ultra-veloce. Collegata tramite un’interconnessione personalizzata con una larghezza di banda di 10TB/s tra i chiplet, e dotata di Tensor Cores di sesta generazione e Transformer Engines di seconda generazione, la Blackwell GB200 offre quasi cinque volte la velocità di inferenza e quattro volte la capacità di memoria rispetto al suo predecessore, l’H100 (Hopper). Con la NVLink di quinta generazione, può raggruppare centinaia di GPU insieme, offrendo una scalabilità senza paragoni.

Perché OpenAI sta costruendo i propri data center oltre a utilizzare Azure Cloud?

Nonostante riceva ingenti risorse cloud da Microsoft Azure, il successo esplosivo di ChatGPT ha portato a un aumento esponenziale della domanda computazionale che potrebbe, alla lunga, superare la scala e la flessibilità offerte da Azure, aumentando anche i costi. Attraverso il Progetto Stargate, OpenAI mira a garantire la propria infrastruttura AI dedicata per supportare calcoli su larga scala e ridurre la dipendenza da Azure. Inoltre, possedere data center distribuiti negli Stati Uniti offre vantaggi in termini di sovranità dei dati e sicurezza. Questa strategia non solo migliora il controllo sui dati e sull’infrastruttura, ma si prevede anche che ridurrà le spese cloud a lungo termine. OpenAI continuerà a collaborare con Azure come parte di un approccio a doppio binario.

Chi sono i concorrenti della NVIDIA Blackwell?

Nell’attuale mercato degli acceleratori AI, i principali concorrenti che sfidano NVIDIA includono AMD e Google. AMD sta cercando di competere con GPU per data center come la MI300, mentre Google impiega i propri TPU proprietari per il calcolo AI su larga scala. Tuttavia, molti esperti del settore – tra cui figure come Elon Musk – hanno affermato che “non c’è nulla di meglio dell’hardware NVIDIA al momento”, riflettendo le prestazioni dominanti di Blackwell. I punti di forza complessivi di NVIDIA in termini di hardware, il suo ecosistema CUDA, le ottimizzazioni software e le tecnologie di interconnessione come NVLink garantiscono che l’architettura Blackwell rimanga il leader nell’addestramento e nell’inferenza AI per il prossimo futuro. Inoltre, le politiche governative statunitensi che regolano l’esportazione di chip AI all’avanguardia, in particolare nei confronti della Cina, rafforzano ulteriormente la posizione competitiva di NVIDIA.

Fonti e Riferimenti:

  • Annuncio ufficiale del blog di OpenAI (21 gennaio 2025)
  • Articolo di DatacenterDynamics (27 febbraio 2025)
  • Rapporto Bloomberg (Rachel Metz et al., 6 marzo 2025)
  • Keynote e documenti tecnici NVIDIA GTC 2024 (riassunti da TechPowerUp, ecc.)
  • Intervista Entrepreneur/Bloomberg (4 ottobre 2024)
  1. Sito ufficiale NVIDIA: https://www.nvidia.com/en-us/
  2. Pagina NVIDIA GTC: https://www.nvidia.com/en-us/gtc/
  3. Blog di OpenAI: https://openai.com/blog/
  4. DatacenterDynamics: https://www.datacenterdynamics.com/
  5. Bloomberg Technology: https://www.bloomberg.com/technology
  6. TechPowerUp: https://www.techpowerup.com/
Torna in alto