
Il futuro dell’AGI e l’analisi delle aziende promettenti: Dai chip NVIDIA a xAI Grok-3
Prospettive per l’AGI e analisi delle aziende chiave
L’AGI (Artificial General Intelligence, intelligenza artificiale generale) si riferisce a quel tipo di intelligenza in grado di eseguire tutte le funzioni intellettuali a un livello pari o superiore a quello umano. Recentemente, l’interesse per l’AGI è cresciuto notevolmente grazie all’emergere di strumenti come ChatGPT, e numerose aziende globali hanno iniziato la corsa per raggiungere l’AGI. Questo rapporto analitico esamina le prospettive future dell’AGI, presenta le principali aziende che guidano lo sviluppo, discute gli attori più promettenti dal punto di vista degli investimenti a lungo termine e analizza le enormi risorse computazionali (GPU) necessarie per implementare l’AGI.
Aziende leader nello sviluppo dell’AGI
Le seguenti aziende sono già considerate all’avanguardia o si prevede che avranno un grande impatto nella corsa all’AGI:
OpenAI
Al centro della diffusione del termine AGI c’è OpenAI. La loro missione è espressa come lo sviluppo dell’AGI a beneficio dell’umanità intera. Con il successo nel lancio di modelli linguistici su larga scala come GPT-3 e GPT-4, hanno fatto un passo importante verso la realizzazione dell’AGI. Con il supporto di Microsoft, hanno costruito un supercomputer specializzato per l’IA, utilizzando oltre 10.000 GPU NVIDIA A100 per addestrare GPT-4 – e per il modello successivo, GPT-5, è prevista un’espansione fino a circa 25.000 GPU. OpenAI basa il suo obiettivo di raggiungere un’AGI sicura e controllabile su queste enormi risorse computazionali.
Google DeepMind
DeepMind, noto per la sua IA che gioca a Go, AlphaGo, ora fa parte di Google e opera sotto il nome di Google DeepMind. L’amministratore delegato Demis Hassabis ha presentato una roadmap per raggiungere l’AGI entro i prossimi 10 anni, sottolineando l’importanza di progressi graduali piuttosto che un eccessivo ottimismo. Particolare attenzione è rivolta all’IA multimodale – modelli che comprendono non solo il testo, ma anche immagini, suoni e video – con lo sviluppo del prossimo modello “Gemini”. Google DeepMind ha anche lanciato Bard, un concorrente dei modelli di OpenAI, e con poche ulteriori innovazioni potrebbe potenzialmente raggiungere il livello di intelligenza umana. Google investe aggressivamente nella sua infrastruttura con TPU proprietarie e un grande volume di GPU NVIDIA, oltre a investimenti strategici in concorrenti come Anthropic.
xAI
La nuova azienda xAI, fondata da Elon Musk (CEO di Tesla e SpaceX) nel 2023, emerge come un outsider nella corsa all’AGI. Ex cofondatore di OpenAI, Musk ha scelto una strada autonoma. xAI ha recentemente presentato il chatbot “Grok”, collegato a X (precedentemente Twitter), che ha attirato l’attenzione grazie alle risposte rapide, tempestive e a uno stile umoristico. Musk promuove ora l’ultimo modello dell’azienda, Grok-3, affermando che supera i modelli più recenti dei concorrenti. Egli afferma che saranno utilizzate oltre 100.000 GPU NVIDIA H100 per addestrare Grok-3 – cinque volte quelle usate per Grok-2. Con una singola H100 che costa tra i 30.000 e i 40.000 dollari, gli investimenti sono enormi, il che suggerisce che Grok-3, previsto per il lancio a fine anno, potrebbe essere qualcosa di veramente eccezionale. xAI sta già testando internamente Grok-1.5, e prevede il lancio di Grok-2 ad agosto 2024, seguito da Grok-3 in seguito nell’anno. Con gli aggressivi investimenti di Musk e un ciclo di sviluppo rapido, non è improbabile che xAI emerga rapidamente nella corsa all’AGI.
Anthropic
Anthropic, una startup AI fondata da ex collaboratori di OpenAI, si concentra sulla sicurezza dell’IA e sviluppa la prossima generazione di modelli linguistici su larga scala. L’azienda ha lanciato la serie Claude, un concorrente di ChatGPT, e ha attratto ingenti investimenti da Google. L’obiettivo è sviluppare un nuovo modello, con il nome in codice “Claude-Next”, che sarà dieci volte più potente di GPT-4. Per raggiungere questo obiettivo, Anthropic prevede di investire oltre 5 miliardi di dollari (circa 6 bilioni di KRW) nei prossimi 2-4 anni per addestrare un modello enorme. Nonostante le ambizioni elevate, e pur essendo il modello considerato una “rivoluzione divina”, l’azienda ha già iniziato a implementare commercialmente i propri modelli e mira a diventare un attore leader nell’era dell’AGI bilanciando sicurezza e prestazioni.
Microsoft
Microsoft gioca un ruolo fondamentale, non solo come sviluppatore ma soprattutto come partner di supporto e utilizzatore. Dopo aver investito 1 miliardo di dollari in OpenAI nel 2019, si sono impegnati a investire fino a 10 miliardi di dollari nei prossimi anni in stretta collaborazione con OpenAI. In qualità di partner hardware di OpenAI, Microsoft Azure fornisce l’infrastruttura cloud necessaria per lo sviluppo dell’IA. Microsoft dispone già di un supercomputer con oltre 10.000 GPU per addestrare GPT-4 e prevede di preparare un cluster con oltre 25.000 GPU per modelli futuri, valutando anche lo sviluppo di propri chip per l’IA. Inoltre, Microsoft integra rapidamente l’IA nei suoi prodotti – da Bing e Office 365 a Windows – il che li rende un attore centrale nel lancio dell’AGI.
Meta (Facebook)
Meta è un altro grande attore, noto soprattutto per i massicci investimenti nell’infrastruttura AI. Sebbene Meta non abbia ufficialmente fissato l’AGI come obiettivo, il loro impegno nella ricerca e nell’infrastruttura AI è innegabile. Rilasciando grandi modelli linguistici come LLaMA, Meta ha scatenato un notevole clamore sia nel mondo accademico che nell’industria, e investe anche in IA generativa per immagini (ad esempio, Imagen) e IA multimodale. Meta prevede di assicurarsi oltre 350.000 GPU NVIDIA H100 e un totale di 600.000 chip AI entro il 2024, il che potrebbe rappresentare la più grande potenza di calcolo AI mai vista. Questi investimenti rendono Meta un attore forte, soprattutto se riusciranno a integrare modelli simili all’AGI nelle loro piattaforme per i social media e il metaverso.
(Altri attori come Baidu e Alibaba vengono menzionati nel contesto, ma questo rapporto si concentra principalmente su esempi statunitensi.)
Opportunità di investimento promettenti nell’era AGI (prospettiva a lungo termine)
Lo sviluppo dell’AGI non solo influenza istituzioni di ricerca e aziende software, ma ha effetti trasversali su tutta l’industria, inclusi hardware, semiconduttori e servizi cloud. Dal punto di vista degli investimenti a lungo termine, le seguenti aziende sono spesso citate come potenziali vincitori nell’era AGI:
• Nvidia:
Un’azienda leader nel design di GPU e il più grande beneficiario della crescita di ChatGPT. Quasi tutte le aziende, tra cui OpenAI, Google e Meta, dipendono dalle GPU Nvidia A100/H100 per addestrare i loro modelli avanzati. Nonostante i prezzi elevati (30.000–40.000 dollari per H100), la domanda è esplosa, portando a ricavi record per i chip AI destinati ai data center.
• AMD:
Come principale concorrente di Nvidia nel mercato delle GPU, AMD cresce grazie allo sviluppo delle sue serie MI300 e acceleratori AI. Con piani per acquistare in massa le GPU Instinct di AMD da Google, il mercato è convinto che una fornitura affidabile di GPU – indipendentemente dalla marca – sia cruciale.
• TSMC:
La più grande fonderia del mondo produce chip AI avanzati come NVIDIA H100, AMD MI300 e le TPU di Google. L’aumento della domanda di chip AI spinge l’utilizzo della capacità produttiva e i ricavi di TSMC, rendendo l’azienda un attore centrale nella tecnologia dei semiconduttori per l’IA.
• Microsoft:
Come partner stretto di OpenAI e con il proprio cloud Azure, Microsoft probabilmente trarrà enormi benefici dalla transizione globale verso l’IA. La loro rapida integrazione dell’IA in prodotti come Bing, Office e Windows offre loro un vantaggio strategico.
• Google:
Google possiede un ecosistema massiccio che abbraccia la ricerca, i servizi cloud e le piattaforme mobili. Attraverso Google DeepMind e altre iniziative, investono nello sviluppo di tecnologie AGI proprie, il che potrebbe ridefinire i modelli di entrate nei settori della ricerca e della pubblicità.
• Meta:
Con aggressivi investimenti in ricerca e infrastruttura AI, Meta si posiziona come un potenziale vincitore nell’era futura dell’IA, nonostante il suo obiettivo AGI non sia definito in modo altrettanto chiaro.
Potenza di calcolo per l’AGI (analisi della scala GPU)
Per sviluppare l’AGI è necessaria una potenza di calcolo enorme. Ad esempio, per addestrare GPT-4 sono state utilizzate circa 20.000 GPU NVIDIA in 90–100 giorni, producendo circa 2,15×10^25 operazioni e raggiungendo una prestazione vicina alla capacità linguistica umana. I modelli futuri come Grok sono destinati a utilizzare quantità di risorse computazionali ancora maggiori:
• OpenAI GPT-3: Si stima che abbia utilizzato migliaia di GPU NVIDIA V100 (circa 36,4 milioni di ore GPU).
• OpenAI GPT-4: Ha utilizzato decine di migliaia di GPU NVIDIA A100.
• xAI Grok-2: È previsto l’uso di circa 20.000 GPU NVIDIA H100 (previsto per maggio 2024).
• xAI Grok-3: È previsto l’uso di oltre 100.000 GPU NVIDIA H100 (obiettivo: fine 2024).
• Meta AI Research SuperCluster: Prevede di assicurarsi fino a 350.000 GPU NVIDIA H100.
• Anthropic Claude-Next: Si stima che richieda centinaia di migliaia di GPU per raggiungere prestazioni dieci volte superiori a GPT-4.
• Google DeepMind Gemini: Utilizza una combinazione di TPU proprie (in migliaia) e ulteriori GPU NVIDIA (le cifre esatte sono riservate).
Questi dati mostrano che l’addestramento di modelli AI avanzati richiede risorse computazionali su larga scala – da decine di migliaia a potenzialmente oltre un milione di GPU in futuro. Ciò non richiede solo enormi investimenti in hardware, ma anche infrastrutture significative come l’alimentazione elettrica, lo spazio nei data center e la stabilità della rete. In definitiva, la corsa per assicurarsi questa potenza di calcolo è centrale nella lotta per raggiungere l’AGI, ed è per questo che le aziende leader stanno ampliando aggressivamente i loro supercomputer e le riserve di GPU.
Fonti:
1. OpenAI, “Planning for AGI and beyond” (2023)
2. Nextplatform, “Microsoft is said to have used 10,000 Nvidia A100 GPUs to train GPT-4…” (2023)
3. Geeky Gadgets, “Demis Hassabis… achieving AGI within the next decade” (2023)
4. Reddit (riassunto da TechCrunch), “Anthropic’s plan… raise $5B… build ‘Claude-Next’ 10 times more capable than GPT-4.” (2023)
5. Business Insider, “Elon Musk: Grok 3 will train on 100,000 Nvidia H100 GPUs” (2024)
6. TweakTown, “Grok 2 used ~20,000 H100 GPUs, Grok 3 will require 100,000 H100 GPUs” (2024)
7. SemiAnalysis, “OpenAI’s GPT-4 used ~20k A100s for 90-100 days (2.15e25 FLOPs)” (2024)
8. AI Tech Report, “Microsoft & OpenAI Project Stargate – $100B AI Supercomputer by 2028” (2024)
#AGI
#IntelligenzaArtificiale
#IntelligenzaGenerale
#InvestimentiAI
#NVIDIA
#OpenAI
#xAI
#Grok3
#TecnologiaDelFuturo
#NvidiaChip