
L’avenir de l’AGI et l’analyse des entreprises prometteuses : Des puces NVIDIA à xAI Grok-3
Perspectives pour l’AGI et analyse des entreprises clés
L’AGI (Intelligence Artificielle Générale, intelligence artificielle générale) désigne ce type d’intelligence capable d’exécuter toutes les tâches intellectuelles à un niveau équivalent ou supérieur à celui d’un être humain. Récemment, l’intérêt pour l’AGI a fortement augmenté grâce à l’émergence d’outils comme ChatGPT, et plusieurs entreprises mondiales se sont lancées dans la course pour atteindre l’AGI. Ce rapport d’analyse examine les perspectives futures de l’AGI, présente les entreprises les plus importantes qui dirigent le développement, discute des acteurs les plus prometteurs d’un point de vue d’investissement à long terme, et passe en revue les énormes ressources de calcul (GPU) nécessaires pour implémenter l’AGI.
Les entreprises de premier plan dans le développement de l’AGI
Les entreprises suivantes sont considérées comme des pionnières ou devraient avoir un impact majeur dans la course à l’AGI :
OpenAI
Au cœur de la popularisation du terme AGI se trouve OpenAI. Leur mission est formulée comme le développement de l’AGI pour le bénéfice de toute l’humanité. Grâce à des lancements réussis de modèles linguistiques à grande échelle tels que GPT-3 et GPT-4, ils ont franchi une étape importante vers la réalisation de l’AGI. Avec le soutien de Microsoft, ils ont construit un superordinateur spécialisé pour l’IA, utilisant plus de 10 000 GPU NVIDIA A100 pour entraîner GPT-4 – et pour le prochain modèle, GPT-5, une montée en puissance à environ 25 000 GPU est prévue. OpenAI fonde son objectif d’atteindre une AGI sûre et contrôlable sur ces énormes ressources de calcul.
Google DeepMind
DeepMind, connu pour son IA jouant au Go, AlphaGo, fait désormais partie de Google et opère sous le nom de Google DeepMind. Le PDG Demis Hassabis a présenté une feuille de route pour atteindre l’AGI dans les 10 prochaines années, en insistant sur l’importance d’avancées progressives plutôt que sur un optimisme démesuré. Une attention particulière est portée à l’IA multimodale – des modèles capables de comprendre non seulement le texte, mais aussi les images, le son et la vidéo – avec le développement du prochain modèle « Gemini ». Google DeepMind a également lancé Bard, un concurrent des modèles d’OpenAI, et avec quelques innovations supplémentaires, ils pourraient potentiellement atteindre un niveau d’intelligence humaine. Google investit de manière agressive dans son infrastructure avec ses propres TPU et un grand volume de GPU NVIDIA, ainsi que des investissements stratégiques dans des concurrents comme Anthropic.
xAI
La nouvelle entreprise xAI, fondée en 2023 par Elon Musk (PDG de Tesla et SpaceX), se présente comme le challenger inattendu dans la course à l’AGI. Ancien cofondateur d’OpenAI, Musk a choisi de suivre sa propre voie. xAI a récemment présenté le chatbot « Grok », lié à X (anciennement Twitter), qui a retenu l’attention grâce à ses réponses rapides, opportunes et à son style humoristique. Musk fait maintenant la promotion du dernier modèle de l’entreprise, Grok-3, en affirmant qu’il surpasse les modèles les plus récents de la concurrence. Il indique que plus de 100 000 GPU NVIDIA H100 seront utilisées pour entraîner Grok-3 – soit cinq fois plus que pour Grok-2. Avec un coût d’environ 30 000 à 40 000 dollars par H100, les investissements sont énormes, ce qui laisse penser que Grok-3, prévu pour une sortie en fin d’année, pourrait être quelque chose de vraiment exceptionnel. xAI teste déjà en interne Grok-1.5 et prévoit le lancement de Grok-2 en août 2024, suivi de Grok-3 plus tard dans l’année. Compte tenu des investissements agressifs de Musk et de son cycle de développement rapide, il n’est pas improbable que xAI se distingue rapidement dans la course à l’AGI.
Anthropic
Anthropic, une startup en IA fondée par d’anciens collaborateurs d’OpenAI, se concentre sur la sécurité de l’IA et développe la prochaine génération de modèles linguistiques à grande échelle. L’entreprise a lancé la série Claude, concurrente de ChatGPT, et a attiré d’importants investissements de Google. L’objectif est de développer un nouveau modèle, baptisé « Claude-Next », qui devrait être dix fois plus performant que GPT-4. Pour ce faire, Anthropic prévoit d’investir plus de 5 milliards de dollars (environ 6 billions de KRW) au cours des 2 à 4 prochaines années afin d’entraîner un modèle d’une envergure exceptionnelle. Malgré des ambitions élevées, et bien que le modèle puisse être perçu comme un « changeur de jeu divin », l’entreprise a déjà commencé à appliquer ses modèles commercialement et aspire à devenir un acteur majeur de l’ère AGI en équilibrant sécurité et performance.
Microsoft
Microsoft joue un rôle déterminant, non seulement en tant que développeur, mais surtout en tant que partenaire et utilisateur. Après avoir investi 1 milliard de dollars dans OpenAI en 2019, ils se sont engagés à investir jusqu’à 10 milliards de dollars dans les années à venir en étroite collaboration avec OpenAI. En tant que partenaire matériel, Microsoft Azure fournit l’infrastructure cloud nécessaire au développement de l’IA. Microsoft dispose déjà d’un superordinateur équipé de plus de 10 000 GPU pour entraîner GPT-4 et prévoit de constituer un cluster de plus de 25 000 GPU pour les futurs modèles, tout en envisageant de développer ses propres puces d’IA. De plus, Microsoft intègre rapidement l’IA dans ses produits – de Bing à Office 365 en passant par Windows – ce qui en fait un acteur central dans le déploiement de l’AGI.
Meta (Facebook)
Meta est un autre grand acteur, surtout connu pour ses investissements massifs dans l’infrastructure de l’IA. Bien que Meta n’ait pas officiellement défini l’AGI comme objectif, son engagement en matière de recherche et d’infrastructure en IA est indéniable. En publiant de grands modèles linguistiques tels que LLaMA, Meta a suscité une grande attention tant dans le monde académique que dans l’industrie, et investit également dans l’IA générative pour les images (par exemple, Imagen) et l’IA multimodale. Meta prévoit de sécuriser plus de 350 000 GPU NVIDIA H100 et un total de 600 000 puces IA d’ici 2024, ce qui pourrait représenter la plus grande puissance de calcul IA jamais réalisée. Ces investissements positionnent Meta comme un acteur de poids, notamment s’ils parviennent à intégrer des modèles similaires à l’AGI dans leurs plateformes de réseaux sociaux et dans le métavers.
(D’autres acteurs tels que Baidu et Alibaba sont également mentionnés dans le contexte, mais ce rapport se concentre principalement sur des exemples américains.)
Opportunités d’investissement prometteuses à l’ère de l’AGI (perspective à long terme)
Le développement de l’AGI n’influence pas seulement les institutions de recherche et les entreprises de logiciels, mais a des effets profonds sur l’ensemble de l’industrie, y compris le matériel, les semi-conducteurs et les services cloud. D’un point de vue d’investissement à long terme, les entreprises suivantes sont souvent citées comme des potentielles gagnantes à l’ère de l’AGI :
- Nvidia :
Leader dans la conception de GPU et le principal bénéficiaire du boom de ChatGPT. Presque toutes les entreprises, y compris OpenAI, Google et Meta, dépendent des GPU Nvidia A100/H100 pour entraîner leurs modèles avancés. Malgré des prix élevés (30 000 à 40 000 dollars par H100), la demande a explosé, menant à des revenus records pour les puces IA destinées aux centres de données. - AMD :
Principal concurrent de Nvidia sur le marché des GPU, AMD croît grâce au développement de sa série MI300 et de ses accélérateurs IA. Avec des plans pour acheter en masse les GPU Instinct d’AMD auprès de Google, le marché est convaincu qu’une fourniture fiable de GPU – quelle que soit la marque – est essentielle. - TSMC :
La plus grande fonderie au monde fabrique des puces IA avancées telles que la NVIDIA H100, l’AMD MI300 et les TPU de Google. L’augmentation de la demande de puces IA stimule l’utilisation de la capacité de production et les revenus de TSMC, faisant de l’entreprise un acteur central dans la technologie des semi-conducteurs pour l’IA. - Microsoft :
En tant que partenaire étroit d’OpenAI et grâce à sa propre plateforme cloud Azure, Microsoft devrait bénéficier grandement de la transition mondiale vers l’IA. Leur intégration rapide de l’IA dans des produits tels que Bing, Office et Windows leur confère un avantage stratégique. - Google :
Google possède un écosystème massif couvrant la recherche, les services cloud et les plateformes mobiles. Par le biais de Google DeepMind et d’autres initiatives, ils investissent dans le développement de technologies AGI propres, ce qui pourrait redéfinir les modèles de revenus dans les secteurs de la recherche et de la publicité. - Meta :
Avec des investissements agressifs dans la recherche et l’infrastructure IA, Meta se positionne comme un potentiel gagnant dans la future ère de l’IA, bien que ses objectifs en matière d’AGI soient moins clairement définis.
Puissance de calcul pour l’AGI (analyse de l’échelle des GPU)
Pour développer l’AGI, une puissance de calcul énorme est nécessaire. Par exemple, environ 20 000 GPU NVIDIA ont été utilisées pour entraîner GPT-4 pendant 90 à 100 jours, générant environ 2,15×10^25 opérations et atteignant une performance proche de la capacité linguistique humaine. Les futurs modèles comme Grok devraient nécessiter des quantités encore plus importantes de ressources de calcul :
- OpenAI GPT-3 : On estime que des milliers de GPU NVIDIA V100 ont été utilisées (environ 36,4 millions d’heures GPU).
- OpenAI GPT-4 : A utilisé des dizaines de milliers de GPU NVIDIA A100.
- xAI Grok-2 : Il est prévu d’utiliser environ 20 000 GPU NVIDIA H100 (prévu pour mai 2024).
- xAI Grok-3 : Il est prévu d’utiliser plus de 100 000 GPU NVIDIA H100 (objectif : fin 2024).
- Meta AI Research SuperCluster : Prévoit de sécuriser jusqu’à 350 000 GPU NVIDIA H100.
- Anthropic Claude-Next : On estime que des centaines de milliers de GPU seront nécessaires pour atteindre une performance dix fois supérieure à GPT-4.
- Google DeepMind Gemini : Utilise une combinaison de TPU propriétaires (en milliers) et des GPU NVIDIA supplémentaires (les chiffres exacts étant confidentiels).
Ces chiffres montrent que l’entraînement de modèles d’IA avancés nécessite des ressources de calcul à grande échelle – allant de dizaines de milliers à potentiellement plus d’un million de GPU à l’avenir. Cela ne requiert pas seulement d’énormes investissements en matériel, mais aussi une infrastructure considérable en termes d’alimentation électrique, d’espace dans les centres de données et de stabilité du réseau. Au final, la course pour sécuriser cette puissance de calcul est centrale dans la quête de l’AGI, raison pour laquelle les entreprises leaders étendent agressivement leurs superordinateurs et leurs réserves de GPU.
Sources :
- OpenAI, “Planning for AGI and beyond” (2023)
- Nextplatform, “Microsoft is said to have used 10,000 Nvidia A100 GPUs to train GPT-4…” (2023)
- Geeky Gadgets, “Demis Hassabis… achieving AGI within the next decade” (2023)
- Reddit (résumé de TechCrunch), “Anthropic’s plan… raise $5B… build ‘Claude-Next’ 10 times more capable than GPT-4.” (2023)
- Business Insider, “Elon Musk: Grok 3 will train on 100,000 Nvidia H100 GPUs” (2024)
- TweakTown, “Grok 2 used ~20,000 H100 GPUs, Grok 3 will require 100,000 H100 GPUs” (2024)
- SemiAnalysis, “OpenAI’s GPT-4 used ~20k A100s for 90-100 days (2.15e25 FLOPs)” (2024)
- AI Tech Report, “Microsoft & OpenAI Project Stargate – $100B AI Supercomputer by 2028” (2024)
**#AGI