2025 NVIDIA Blackwell dirige le projet Stargate : Une nouvelle ère d’innovation en IA

NVIDIA Blackwell dirige le projet Stargate : Une nouvelle ère d’innovation en IA

Introduction : L’émergence d’un nouveau paradigme en IA

La toute dernière architecture de puces IA de NVIDIA, Blackwell, a été choisie comme le moteur central du projet d’infrastructure IA à très grande échelle, Stargate. Ce projet révolutionnaire, soutenu par un investissement total de 500 milliards de dollars (environ 720 billions de KRW) provenant d’OpenAI, Oracle, SoftBank et de la société d’investissement en IA d’Abou Dhabi, MGX, vise à construire d’immenses complexes de centres de données à travers les États-Unis au cours des quatre prochaines années. Au cœur de cette infrastructure se trouve la GPU GB200 basée sur NVIDIA Blackwell. Blackwell est saluée comme une percée révolutionnaire dans l’entraînement et l’inférence en IA, offrant jusqu’à un quintuplement des performances de calcul en IA et une expansion de la mémoire révolutionnaire par rapport aux générations précédentes. Parallèlement, après le phénomène ChatGPT en 2023, la demande pour des modèles IA ultra-massifs a augmenté dans le monde entier, contraignant les infrastructures cloud globales à faire face à un manque de ressources de calcul en IA. Pour relever ce défi et affirmer la domination de l’IA, OpenAI et ses partenaires ont lancé des investissements massifs – et ont initié des projets tels que Stargate. En répondant à cette énorme demande avec son architecture Blackwell, NVIDIA joue un rôle déterminant dans l’innovation en IA. Cet article offre une analyse approfondie des caractéristiques de l’architecture NVIDIA Blackwell, de l’échelle et de l’importance du projet Stargate, ainsi que des transformations du marché mondial qu’il est sur le point de déclencher.

Pour obtenir plus d’informations sur les dernières annonces GTC de NVIDIA, consultez notre article détaillé sur NVIDIA GTC.

NVIDIA Blackwell : La puissance des puces IA de nouvelle génération

Révélée en 2024, Blackwell de NVIDIA est la dernière architecture GPU pour l’IA qui se targue de performances de pointe et d’innovations technologiques dans l’industrie. S’appuyant sur les avancées des générations précédentes telles que Volta, Ampere et Hopper, Blackwell représente la cinquième génération de puces IA.

En mars 2024, lors du discours d’ouverture du GTC, le PDG de NVIDIA, Jensen Huang, a présenté la nouvelle GPU Blackwell (à gauche) aux côtés de la GPU Hopper de la génération précédente (à droite).

Parmi la série Blackwell, le modèle haut de gamme B200 GPU se distingue comme la plus grande puce à ce jour, composée de plus de 20,8 milliards de transistors. Elle possède un design innovant qui unifie deux chiplets massifs en une seule unité opérationnelle. En conséquence, la Blackwell B200 atteint une performance de calcul en IA époustouflante de 20 petaflops (PFLOPs) sur une seule puce, optimisée pour des charges de travail d’IA révolutionnaires telles que les grands modèles de langage (LLM) grâce à ses Tensor Cores de sixième génération et ses Transformer Engines de deuxième génération. De plus, chaque GPU B200 est équipée de 192 Go de mémoire HBM3E ultra-rapide, quadruplant ainsi la capacité de mémoire par rapport à ses prédécesseurs et offrant une bande passante de 8 To/s pour traiter d’immenses quantités de données en temps réel.

Une caractéristique particulièrement remarquable de l’architecture Blackwell est son support pour la connexion NVLink de nouvelle génération. Avec NVLink de cinquième génération, des dizaines de GPU au sein d’un seul serveur peuvent être regroupées pour fonctionner comme une gigantesque GPU. En utilisant des commutateurs NVLink dédiés, il est possible de connecter jusqu’à 576 GPU à des vitesses ultra-rapides, créant ainsi un domaine de calcul immense. Des configurations telles que NVL72, implémentées dans des systèmes basés sur Blackwell, peuvent combiner 72 GPU en un seul nœud, permettant une inférence en temps réel sur des modèles comportant plus d’un billion de paramètres. Grâce à cette évolutivité, l’utilisation des GPU Blackwell permet de construire des superordinateurs IA à une échelle beaucoup plus grande qu’auparavant, tout en minimisant les goulets d’étranglement dans le transfert de données entre les GPU pour maximiser l’efficacité de l’entraînement.

De plus, NVIDIA a introduit un module intégré – le GB200 Superchip – qui connecte directement la GPU Blackwell à la CPU serveur de NVIDIA, Grace, via des liaisons à haute vitesse. Le module GB200 combine deux GPU B200 avec une CPU Grace connectée via NVLink, permettant ainsi un transfert de données bien plus rapide entre la CPU et la GPU qu’avec PCIe et réduisant les goulets d’étranglement lors d’un entraînement distribué à grande échelle. La CPU Grace, basée sur l’architecture ARM, est conçue pour un accès à la mémoire à haute bande passante et est optimisée pour fonctionner en tandem avec les GPU de NVIDIA, en s’appuyant sur la technologie éprouvée du Superchip GH200 (Grace-Hopper). En résumé, l’architecture Blackwell améliore non seulement les performances matérielles, mais aussi l’efficacité globale de l’architecture système, portant ainsi la scalabilité de l’infrastructure IA à un nouveau niveau.

Caractéristiques techniques clés du Blackwell B200/GB200 :

  • Structure de chiplet ultra-grande : Une GPU composée de 20,8 milliards de transistors répartis sur deux chiplets, la plus grande puce disponible.
  • Capacité de mémoire massive : Équipée de 192 Go de mémoire HBM3E offrant une bande passante de 8 To/s pour traiter d’immenses quantités de données en temps réel.
  • Performances de calcul exponentielles : Atteint 20 PFLOPs en calcul IA, optimisée pour les LLM avec support des opérations FP4/FP8 à très basse précision.
  • Architecture évolutive : Utilise NVLink de cinquième génération pour connecter jusqu’à 576 GPU, avec des configurations telles que NVL72 qui supportent des clusters massifs.
  • Intégration CPU-GPU : La configuration du GB200 Superchip avec la CPU Grace minimise les goulets d’étranglement entre la CPU et la GPU.
  • Fiabilité et sécurité : Améliorées grâce à des moteurs RAS dédiés et à la technologie de Confidential Computing.

Grâce à ces spécifications impressionnantes, la GPU Blackwell a immédiatement attiré l’attention du marché dès son lancement, entraînant une croissance record des revenus des centres de données de NVIDIA. En effet, NVIDIA a enregistré une augmentation de 142 % en glissement annuel des revenus des centres de données pour l’exercice 2025, atteignant un revenu total de 115,2 milliards de dollars, les ventes des nouveaux chips Blackwell représentant à elles seules 11 milliards de dollars au quatrième trimestre 2025 (octobre-décembre) – la croissance la plus rapide jamais réalisée dans l’histoire de l’entreprise. La directrice financière de NVIDIA, Colette Kress, a déclaré : « Blackwell est adopté à une vitesse et à une échelle sans précédent dans notre histoire, et avec son intégration, la construction de clusters de 100 000 GPU deviendra bientôt la norme. » Ainsi, l’avènement de Blackwell est positionné comme une révolution qui transformera rapidement l’industrie du calcul en IA.

Le projet Stargate : L’aube d’une infrastructure IA ultra-massive

Le projet Stargate, annoncé en janvier 2025, est une initiative de centres de données IA ultra-massifs conçue pour répondre à la demande explosive en capacités de calcul IA d’OpenAI. Lancé en tant que coentreprise par le président de SoftBank, Son Jeong-ui, OpenAI, Oracle et la société d’investissement MGX d’Abou Dhabi – SoftBank assurant le soutien financier et OpenAI dirigeant les opérations – ce projet est inégalé en termes d’échelle, avec un investissement total de 500 milliards de dollars. Immédiatement après l’annonce, un investissement initial de 100 milliards de dollars a été injecté, lançant la construction du premier complexe de centres de données. Le gouvernement américain a également pris note de cette initiative ; lors d’un événement à la Maison-Blanche, le président Donald Trump a déclaré : « Nous allons construire le système d’IA le plus puissant du monde en Amérique, » exprimant ainsi son soutien total à Stargate. Cet investissement stratégique vise à surpasser des nations concurrentes telles que la Chine dans la course aux armements en IA.

Le premier complexe de centres de données du projet Stargate est situé à Abilene, au Texas, avec des préparatifs de site et des travaux de construction en cours depuis la seconde moitié de 2024. Des rapports indiquent que ce campus comprendra éventuellement entre 10 et 20 bâtiments de centres de données distincts, construits en phases, ce qui en fera le plus grand centre de supercalcul en IA du monde une fois achevé. Larry Ellison, président d’Oracle, a indiqué sur place que « dix centres de données sont déjà en construction, » tandis qu’OpenAI évalue, selon certaines informations, d’autres sites dans 16 États américains. Chaque campus est prévu comme une installation gigantesque consommant des gigawatts (GW) d’électricité ; avec seulement 5 à 10 campus, une infrastructure de calcul colossale s’étendra sur plusieurs GW.

L’unicité du projet Stargate réside non seulement dans l’échelle physique de ses centres de données, mais aussi dans le niveau qualitatif de la puissance de calcul en IA qu’ils abriteront. OpenAI et ses partenaires prévoient d’investir les meilleures capacités de calcul en IA au monde dans cette infrastructure gigantesque, qui sera utilisée pour entraîner et exploiter les modèles GPT de nouvelle génération. À cette fin, des dizaines de milliers de GPU NVIDIA Blackwell GB200 seront déployées dans les centres de données Stargate. Des études de marché suggèrent que le campus de la première phase à Abilene, Texas, disposera d’environ 64 000 puces NVIDIA GB200 installées et opérationnelles au plus tard à la fin de 2026. Étant donné qu’une seule GPU Blackwell coûte entre 30 000 et 40 000 dollars (environ 40 à 50 millions de KRW), le coût matériel des GPU dans une installation est estimé à des billions de KRW. Avec des extensions futures de campus et de nouveaux développements de sites, le projet Stargate est en passe de devenir la plus grande infrastructure mondiale de calcul en IA, avec des centaines de milliers de GPU déployées.

Les immenses ressources de calcul soutiendront principalement l’entraînement et l’inférence des modèles d’OpenAI et pourront également être mises à disposition d’entreprises externes ou d’institutions de recherche via les services cloud d’Oracle. Étant donné que NVIDIA et Oracle, tous deux ayant une vaste expérience dans la gestion de clusters massifs de GPU, géreront cette infrastructure, une grande fiabilité dans l’exploitation et l’utilisation d’un tel système ultra-massif est attendue.

Pourquoi le projet Stargate déploie-t-il la NVIDIA Blackwell GB200 à grande échelle ?

Pourquoi le projet Stargate a-t-il choisi de déployer la GB200 basée sur NVIDIA Blackwell à une telle échelle ? La réponse réside dans la capacité de Blackwell à offrir la plateforme matérielle IA la plus puissante et la plus évolutive actuellement disponible. Les modèles de nouvelle génération d’OpenAI se composent de centaines de milliards à des billions de paramètres, nécessitant des GPU capables de gérer d’énormes charges de calcul. Comme mentionné précédemment, la Blackwell B200/GB200 atteint jusqu’à un quintuplement des performances par rapport à la génération précédente Hopper (H100), avec une capacité de mémoire GPU quadruplée, ce qui facilite le chargement complet de grands modèles dans la mémoire GPU. Cela permet un entraînement efficace de batchs plus importants et de modèles plus profonds – améliorant ainsi l’efficacité de l’entraînement des modèles ultra-massifs.

De plus, l’introduction des opérations FP8 et FP4 à faible précision, associée à des optimisations avancées des opérations de transformateur dans l’architecture Blackwell, peut augmenter de manière spectaculaire la vitesse d’inférence des grands modèles de langage tels que ChatGPT. Par exemple, des serveurs basés sur Blackwell peuvent traiter des dizaines de milliers de tokens par seconde, réduisant considérablement la latence dans les services d’IA conversationnelle en temps réel et diminuant les coûts d’exploitation. Même si OpenAI développe un modèle de prochaine génération bien plus grand que GPT-4, on s’attend à ce qu’une infrastructure composée de dizaines de milliers de GPU Blackwell puisse le supporter adéquatement. Selon l’annonce de NVIDIA, un nœud NVL72 composé de 72 GPU Blackwell a montré des performances d’inférence en temps réel supérieures de plus de 30 fois par rapport aux serveurs DGX à 8 GPU existants, ce qui signifie une réduction considérable du nombre de serveurs physiques nécessaires pour le déploiement à grande échelle des modèles. En d’autres termes, le déploiement de Blackwell dans Stargate réduira le nombre de serveurs nécessaires pour des tâches de calcul équivalentes, améliorant ainsi l’efficacité énergétique et l’utilisation de l’espace, et réduisant finalement les coûts d’exploitation.

Le soutien des technologies de réseau de pointe, telles que NVIDIA Spectrum-X, est un autre facteur critique qui favorise l’adoption à grande échelle de Blackwell dans Stargate. Dans ces clusters de GPU ultra-massifs, la communication entre les GPU a un impact décisif sur la performance globale du système. NVIDIA, parallèlement au lancement de Blackwell, a introduit sa technologie Ethernet haute performance Spectrum-X, qui offre une solution réseau optimisée pour des clusters IA massifs. NVIDIA a annoncé qu’il fournirait cette plateforme réseau Spectrum-X aux premiers centres de données du projet Stargate. Cela permettra de minimiser la latence de communication entre les GPU et, combiné aux commutateurs NVLink, de former un réseau IA ultra-rapide connectant des dizaines de milliers de GPU. La solution clé en main proposée par NVIDIA constitue un avantage considérable pour Stargate. En bref, c’est la combinaison intégrale de performances de pointe, d’une évolutivité remarquable et d’une exploitation efficace à grande échelle – incarnée dans la plateforme Blackwell GB200 – qui a fait de cette solution le choix évident comme noyau du projet Stargate.

Impact mondial sur l’industrie de l’IA et perspectives futures

L’utilisation de NVIDIA Blackwell dans le projet Stargate a des implications considérables pour l’industrie mondiale de l’IA. Tout d’abord, ce cas symbolise l’expansion rapide de l’échelle des investissements dans l’infrastructure IA. Autrefois, des entreprises ou institutions individuelles investissaient des milliards de dollars dans l’infrastructure IA, mais désormais le paysage évolue vers des mégaprojets impliquant des consortiums avec des investissements de centaines de milliards de dollars, comme le démontre clairement Stargate. Le PDG de NVIDIA, Jensen Huang, a décrit ces immenses centres de données IA comme des « usines d’IA » et a souligné qu’ils constitueront le cœur de la prochaine révolution industrielle. Cela indique que la concurrence dans le développement des modèles IA est devenue une bataille entre acteurs ultra-massifs, ceux qui ne disposent pas d’un capital et d’une technologie énormes risquant d’être laissés pour compte. En fait, certains experts du secteur ont même spéculé que Samsung pourrait rejoindre Stargate, ce qui pourrait potentiellement former une autre grande alliance en matière d’IA – un exemple clair de l’effet disruptif de cette annonce. En conséquence, il est prévu que d’autres géants technologiques mondiaux accélèrent leurs propres efforts pour construire des superordinateurs IA. Microsoft, Google, Meta et même des entreprises publiques chinoises étendent déjà ou prévoient d’étendre leurs centres de données avec des dizaines de milliers de GPU. Des startups telles que CoreWeave aux États-Unis ont également commencé à sécuriser plus de 250 000 GPU pour défier le marché des services cloud en IA. Pour répondre à cette demande explosive de GPU Blackwell, NVIDIA augmente sa production, et si cette tendance se poursuit, la position dominante de l’entreprise sur le marché des semi-conducteurs IA devrait rester intacte pour un avenir prévisible.

Les progrès du projet Stargate sont également prêts à accélérer l’innovation dans l’ensemble de l’industrie des centres de données. Les complexes de centres de données d’une capacité de 1 GW présenteront de nouveaux défis techniques en matière d’alimentation, de refroidissement et de réseaux. Par exemple, des systèmes de refroidissement liquide innovants à grande échelle ou des systèmes de climatisation avancés pourraient être mis en place pour gérer efficacement la chaleur générée par des centaines de milliers de GPU haute performance. Une alimentation électrique stable sera assurée grâce à l’intégration de la production d’énergie renouvelable, des systèmes de stockage d’énergie et d’une distribution d’électricité en courant continu haute tension (HVDC) utilisant les technologies électriques de pointe. En fin de compte, ces avancées propulseront le développement des technologies des centres de données, bénéficiant non seulement à l’IA mais également aux services cloud en général. De plus, la construction d’une infrastructure IA massive aux États-Unis devrait avoir un impact positif sur les économies locales en stimulant l’activité économique régionale et en créant des emplois dans le secteur des hautes technologies. Déjà, des centaines de personnes sont embauchées pour exploiter les centres de données dans la région d’Abilene, et chaque nouveau campus devrait créer des milliers de nouveaux emplois.

D’un point de vue technologique, l’avènement de clusters ultra-massifs comme Stargate pourrait fondamentalement transformer le paradigme de la recherche et du développement en IA. Alors que les efforts antérieurs se concentraient sur le dépassement des limitations des modèles grâce à l’optimisation des algorithmes et aux techniques d’apprentissage distribué, la réduction des contraintes matérielles permet désormais une mise en œuvre et une expérimentation directe de modèles comportant un nombre de paramètres jamais vu auparavant. Cela pourrait finalement nous rapprocher d’un pas de plus vers la réalisation de l’AGI (Intelligence Artificielle Générale) et jeter les bases d’un bond quantique dans les performances des modèles IA. Les chercheurs d’OpenAI et d’autres pourront bientôt avoir l’opportunité de lancer des projets massifs auparavant inimaginables, ouvrant ainsi la voie à des percées scientifiques et à la résolution de problèmes complexes grâce à l’IA.

Les années à venir exigeront une attention minutieuse aux progrès de NVIDIA et du projet Stargate. NVIDIA a déjà annoncé ses plans pour son chip de prochaine génération, le « Blackwell Ultra », ainsi que pour des architectures subséquentes (nom de code Vera Rubin), esquissant une feuille de route pour une croissance exponentielle de la puissance de calcul en IA. De même, il est prévu que Stargate, après le lancement de son premier campus, étende progressivement d’autres campus et finalise son infrastructure en quatre ans. Au cours de ce processus, l’équipement initial basé sur Blackwell sera progressivement remplacé ou complété par des mises à niveau de nouvelle génération, garantissant que l’infrastructure IA en évolution reste à la pointe de la technologie. Par exemple, des chips Blackwell Ultra ou des CPU Grace améliorées pourraient être introduits après 2026, augmentant encore la performance des clusters. Grâce à la coévolution du matériel et de l’infrastructure, l’industrie de l’IA est en passe de maintenir une croissance rapide dans un avenir prévisible, et la collaboration étroite entre NVIDIA et OpenAI devrait exercer une influence considérable sur l’ensemble du secteur.

Conclusion : Une nouvelle ère d’innovation en IA libérée par NVIDIA Blackwell et Stargate

L’avènement de la GB200 basée sur NVIDIA Blackwell a établi une nouvelle étape dans le matériel IA, et son intégration dans le projet Stargate est prête à libérer tout son potentiel. Ce projet – où les puces IA les plus performantes du monde rencontrent un niveau de capital et d’infrastructure sans précédent – ne devrait pas seulement construire des centres de données massifs, mais également déclencher un changement de paradigme dans l’innovation en IA. Fort de ses années d’expertise, de sa collaboration étroite avec OpenAI et de la solide réputation dont jouissent les deux entreprises dans l’industrie, on a une grande confiance dans le succès de ce système IA ultra-massif.

Naturellement, de tels projets colossaux s’accompagnent de leurs propres défis. Les premiers rapports de problèmes thermiques dans les systèmes basés sur Blackwell soulignent par exemple la possibilité d’obstacles imprévus liés à l’adoption de nouvelles technologies. De plus, les questions de durabilité liées à la consommation d’énergie et à la chaleur générée par des centaines de milliers de puces IA doivent être abordées. Néanmoins, NVIDIA, OpenAI et d’autres acteurs de l’industrie travaillent activement à promouvoir des avancées technologiques et des solutions innovantes en matière d’infrastructure pour surmonter ces défis.

Une fois que l’infrastructure Stargate – composée de centaines de milliers de GPU NVIDIA Blackwell – sera entièrement opérationnelle, nous assisterons à une nouvelle ère où la vitesse et la capacité d’entraînement et d’inférence des modèles IA seront inégalées. Cela conduira à une augmentation significative de l’utilisation de l’IA dans divers secteurs, stimulant ainsi des services et des produits innovants dans des domaines tels que la conduite autonome, la santé, la finance et la fabrication. La convergence de NVIDIA Blackwell et du projet Stargate constitue une étape majeure dans l’histoire de l’IA et accélère le rythme du développement de l’IA à des niveaux jamais atteints auparavant. Alors que nous continuons de suivre les progrès et les résultats de ce projet colossal, il sera crucial de surveiller de près comment cette infrastructure IA transformera l’avenir de l’humanité. Le projet Stargate et la volonté de NVIDIA de repousser les limites de l’IA nous préparent au prochain chapitre de la révolution de l’IA.

Questions fréquentes (FAQ)

Qu’est-ce que le projet Stargate ?

Le projet Stargate est une initiative de centres de données IA ultra-massifs lancée en 2025 pour répondre à la demande explosive en capacités de calcul IA d’OpenAI. Investi conjointement par SoftBank, OpenAI, Oracle et la société d’investissement MGX d’Abou Dhabi – où SoftBank assure le soutien financier et OpenAI dirige les opérations – ce projet construira d’immenses campus de centres de données dans divers sites aux États-Unis. Le premier campus est en construction à Abilene, au Texas, et l’ensemble du projet, évalué à 500 milliards de dollars, représente un niveau d’investissement sans précédent dans une seule initiative. Cette démarche stratégique vise à renforcer le leadership des États-Unis en matière d’IA et à soutenir le développement de l’AGI.

Qu’est-ce que la NVIDIA Blackwell GB200, et quelle est sa puissance ?

Blackwell est la dernière architecture GPU de NVIDIA, dévoilée en 2024. La GB200 désigne un superchip intégrant deux GPU B200 avec une CPU Grace. Le GPU B200 contient 20,8 milliards de transistors, offre jusqu’à 20 PFLOPs de puissance de calcul en IA et est équipé de 192 Go de mémoire HBM3E ultra-rapide. Il est connecté via une interconnexion sur mesure offrant une bande passante de 10 To/s entre les chiplets, et avec ses Tensor Cores de sixième génération et ses Transformer Engines de deuxième génération, la Blackwell GB200 offre presque cinq fois plus de vitesse d’inférence et quatre fois plus de capacité de mémoire que son prédécesseur, la H100 (Hopper). Grâce à NVLink de cinquième génération, elle peut regrouper des centaines de GPU, offrant une évolutivité inégalée.

Pourquoi OpenAI construit-il ses propres centres de données en plus d’utiliser Azure Cloud ?

Bien que bénéficiant de ressources cloud massives de Microsoft Azure, le succès explosif de ChatGPT a conduit à une augmentation exponentielle des besoins en calcul, qui pourrait à terme dépasser l’échelle et la flexibilité qu’Azure peut offrir, tout en augmentant potentiellement les coûts. Grâce au projet Stargate, OpenAI vise à sécuriser sa propre infrastructure IA dédiée pour supporter des calculs à grande échelle et réduire sa dépendance vis-à-vis d’Azure. De plus, posséder des centres de données distribués à travers les États-Unis offre des avantages en termes de souveraineté des données et de sécurité. Cette stratégie améliore non seulement le contrôle des données et de l’infrastructure, mais devrait également réduire les coûts cloud à long terme. OpenAI continuera de collaborer avec Azure dans le cadre d’une approche bimodale.

Qui sont les concurrents de NVIDIA Blackwell ?

Sur le marché actuel des accélérateurs d’IA, les principaux concurrents qui défient NVIDIA incluent notamment AMD et Google. AMD concurrence avec des GPU pour centres de données tels que le MI300, tandis que Google utilise ses propres TPU propriétaires pour le calcul IA à grande échelle. Toutefois, de nombreux experts du secteur – y compris des personnalités comme Elon Musk – ont déclaré qu’il n’existait rien de mieux que le matériel de NVIDIA en ce moment, ce qui reflète la performance dominante de Blackwell. Les forces considérables de NVIDIA en matière de matériel, son écosystème CUDA, ses optimisations logicielles et ses technologies d’interconnexion comme NVLink garantissent que l’architecture Blackwell restera leader dans l’entraînement et l’inférence en IA pour un avenir prévisible. De plus, les politiques gouvernementales américaines régulant l’exportation de puces IA de pointe, en particulier à destination de la Chine, renforcent encore la position concurrentielle de NVIDIA.

Sources et références :

  • Annonce officielle du blog d’OpenAI (21 janvier 2025)
  • Article de presse de DatacenterDynamics (27 février 2025)
  • Rapport Bloomberg (Rachel Metz et al., 6 mars 2025)
  • Keynote NVIDIA GTC 2024 et documents techniques (résumés de TechPowerUp, etc.)
  • Entretien Entrepreneur/Bloomberg (4 octobre 2024)
  1. Site officiel de NVIDIA : https://www.nvidia.com/en-us/
  2. Page NVIDIA GTC : https://www.nvidia.com/en-us/gtc/
  3. Blog d’OpenAI : https://openai.com/blog/
  4. DatacenterDynamics : https://www.datacenterdynamics.com/
  5. Bloomberg Technology : https://www.bloomberg.com/technology
  6. TechPowerUp : https://www.techpowerup.com/
Retour en haut