Rivoluzione dell’AI Generativa: L’Impatto sui Prezzi delle Azioni di NVIDIA e TSMC

Rivoluzione dell’AI Generativa: L’Impatto sui Prezzi delle Azioni di NVIDIA e TSMC

GPT-5 e Groq-4: Un anno dopo il lancio – Effetti sul fatturato e sulla capitalizzazione di mercato di NVIDIA e TSMC

Aumento delle vendite di semiconduttori per l’AI:

Dopo l’esplosione della domanda di chip AI per data center durante l’era GPT-4, il segmento data center di NVIDIA ha visto un incremento del 112% rispetto all’anno precedente, raggiungendo un fatturato trimestrale di 30,77 miliardi di dollari. Questo fatturato rappresenta oltre la metà delle entrate complessive, trainato dagli investimenti delle principali società cloud in modelli di dimensioni colossali, con una crescita a tre cifre per due trimestri consecutivi.

Parallelamente, TSMC ha beneficiato del boom nella produzione di chip per l’AI: il fatturato delle sue piattaforme HPC (High Performance Computing) è aumentato del 58% rispetto all’anno precedente, costituendo ora il 51% del fatturato annuale previsto per il 2024. Il CEO di TSMC ha dichiarato che “le entrate derivanti dagli acceleratori AI nel 2024 sono triplicate e si prevede un aumento superiore al doppio nel 2025.”

L’introduzione di GPT-5 stimolerà ulteriormente la domanda per la formazione e l’inferenza dei modelli AI, potenziando ulteriormente questo effetto trainante sul fatturato. Ad esempio, OpenAI avrebbe impiegato circa 25.000 GPU NVIDIA A100 per il training di GPT-5, un investimento che probabilmente porterà a significativi acquisti di GPU e ingenti investimenti in data center.

Inoltre, nel terzo trimestre del 2024, la spesa in capitale (CapEx) globale per i data center delle aziende hyperscale è aumentata dell’82%, grazie all’investimento centrale in infrastrutture AI.

Aumento della capitalizzazione di mercato:

Dall’introduzione di GPT-4, che ha innescato una domanda esplosiva per i semiconduttori AI, sia NVIDIA che TSMC hanno registrato notevoli aumenti nella loro capitalizzazione di mercato. NVIDIA è passata da una capitalizzazione di 1,2 trilioni di dollari alla fine del 2023 a 3,28 trilioni di dollari alla fine del 2024 – un incremento di oltre 2 trilioni di dollari in appena un anno – conquistando così la seconda posizione a livello mondiale. Nel mese di ottobre 2024, NVIDIA ha persino superato temporaneamente Apple, diventando per un breve periodo l’azienda più preziosa al mondo.

Anche TSMC ha beneficiato dell’onda AI: nel medesimo periodo, la sua capitalizzazione ha raggiunto circa 833 miliardi di dollari, con un aumento del prezzo delle azioni superiore al 90% nell’arco dell’anno. TSMC si è affermata come partner esclusivo per la produzione di chip AI avanzati per aziende di punta come NVIDIA e AMD, e questo incremento della domanda si riflette immediatamente nei risultati economici e nella capitalizzazione di mercato.

Un anno dopo il lancio di GPT-5 e Groq-4, ci si aspetta che la quota di fatturato dei data center di NVIDIA continui ad aumentare (attualmente superiore al 50%), mentre la quota dei chip HPC/AI di TSMC si espanderà ulteriormente, rafforzando la solidità finanziaria di entrambe le aziende. Particolarmente significativo è il fatto che il 74% delle entrate di TSMC deriva da processi avanzati a 7nm o inferiori, consentendo all’azienda di trarre vantaggio diretto dall’era dell’AI.

Espansione dei server e delle infrastrutture:

L’avvento di modelli iper-grandi come GPT-5 ha intensificato la competizione tra i principali operatori cloud globali per espandere i loro data center. Nel 2024, le grandi aziende tecnologiche hanno stimato di aver investito circa 236 miliardi di dollari in nuove strutture – un aumento superiore al 50% rispetto all’anno precedente – e società come AWS e Google hanno in programma di destinare centinaia di miliardi di dollari nei prossimi anni all’espansione dell’infrastruttura AI.

Infatti, nel terzo trimestre del 2024, ben il 40% degli investimenti globali in data center (CapEx) è stato destinato all’infrastruttura AI (server accelerati). Le soluzioni server AI basate su GPU di NVIDIA rappresentano ormai fino al 40% delle vendite OEM di server, e la domanda per server specifici per il training AI compensa il rallentamento del mercato dei server tradizionali, guidando una crescita a doppia cifra.

Un anno dopo il lancio di GPT-5, ci si aspetta che i principali provider cloud in Italia e nel mondo implementino data center dotati di cluster GPU H100/H200 e acceleratori Groq, mentre le aziende ampliano l’adozione dell’AI, determinando una crescita annua della domanda di chip AI pari a 30–40% o più.

Sintesi:

Nell’era di GPT-5 e Groq-4, NVIDIA e TSMC sperimenteranno risultati straordinari specifici per l’AI e un significativo aumento della loro capitalizzazione di mercato, superando le aspettative degli investitori.

GPT-6 e Groq-5: Un anno dopo il lancio – Prospettive di miglioramento delle prestazioni e crescita del mercato

Miglioramento della potenza di calcolo di GPT-6:

Si prevede che GPT-6 possiederà una potenza di calcolo e un’intelligenza notevolmente superiori rispetto alle generazioni precedenti. Mentre si stima che GPT-5 richieda circa 1,7×10^26 FLOPs (operazioni in virgola mobile) per il training, GPT-6 potrebbe richiedere ancora più risorse computazionali oppure ottimizzare l’efficienza attraverso una migliore architettura del modello. OpenAI ha sottolineato in passato che “più un modello diventa intelligente, più diventa cruciale disporre di dati di alta qualità e di inferenze ottimizzate”, suggerendo così che GPT-6 si focalizzerà notevolmente sull’aumento dell’efficienza.

Con l’incremento del numero di parametri e delle capacità multimodali, GPT-6 richiederà una potenza di calcolo molto superiore a quella di GPT-5. Per soddisfare tali requisiti, NVIDIA introdurrà la sua nuova architettura GPU (successore della serie Blackwell), che migliorerà sia la velocità di elaborazione sia l’efficienza energetica. Contemporaneamente, il nuovo acceleratore Groq-5 evolverà ulteriormente l’architettura LPU per offrire una latenza ultrabassa e una elevata efficienza energetica. Attualmente, la Groq LPU ha dimostrato, nel benchmark Meta Llama2-70B, di generare 241 token al secondo – oltre il doppio della velocità di GPU comparabili – raggiungendo inoltre un’efficienza energetica dieci volte superiore.

Confronto tra potenza di calcolo ed efficienza energetica:

Confrontando la prossima generazione di GPU NVIDIA con la Groq-5, risulta chiaro che, sebbene le GPU mantengano il vantaggio in termini di versatilità, i chip specializzati come la LPU saranno probabilmente superiori in termini di efficienza energetica. Groq sostiene infatti che la propria LPU sia “almeno 10 volte più efficiente dal punto di vista energetico” rispetto alle GPU tradizionali. La GroqCard consuma solo 1–3 Joule per token, rispetto ai 10–30 Joule delle GPU NVIDIA. Nel contesto di GPT-6, l’efficienza energetica per watt (Watt/Token) diventerà un parametro cruciale, in particolare a causa dei limiti energetici imposti ai data center. Nella pratica, si prevede che le GPU saranno principalmente utilizzate per il training, mentre i sistemi basati su LPU saranno impiegati per l’inferenza in tempo reale.

Prospettive di mercato per la prossima generazione di acceleratori AI:

L’introduzione di GPT-6 e Groq-5 dovrebbe far crescere esponenzialmente il mercato degli acceleratori AI. Solo nel 2024, il mercato globale dei chip e delle tecnologie acceleratrici per l’AI è stimato intorno agli 11 miliardi di dollari, con una crescita prevista fino a superare i 130 miliardi di dollari entro il 2030 – un incremento di oltre dieci volte. NVIDIA è destinata a mantenere una quota di mercato del 74% in questo segmento, mentre Mizho Securities prevede che i ricavi di NVIDIA legati all’AI raggiungeranno i 259 miliardi di dollari nel 2027, più di quattro volte quelli attuali.

Questa crescita sarà principalmente trainata dalla massiccia adozione della tecnologia GPT-6, che vedrà le aziende non solo espandere i propri data center ma anche costruire cluster interni di GPU e acceleratori AI. Parallelamente, lo sviluppo di ASIC AI personalizzati (come il Google TPU e l’AWS Inferentia) si accelererà, il che potrebbe ridurre in parte la posizione dominante di NVIDIA. Tuttavia, TSMC continuerà a beneficiare degli ordini per questi chip personalizzati.

La sinergia tra NVIDIA e TSMC rimane solida: si prevede che la capitalizzazione di mercato di NVIDIA raggiungerà circa 3,6 trilioni di dollari alla fine del 2024 (la seconda più grande al mondo), mentre TSMC batterà record trimestrali grazie alla crescente domanda nel settore HPC.

Analisi della domanda di GPU e dell’espansione dei data center per lo sviluppo dell’AGI

Confronto dei requisiti computazionali: AGI versus modelli esistenti:

L’Intelligenza Artificiale Generale (AGI) dovrà essere in grado di eseguire una vasta gamma di compiti a livello umano, richiedendo così una potenza di calcolo esponenzialmente superiore a quella dei modelli attuali come GPT-4 o GPT-5, che già consumano tra 10^25 e 10^26 FLOPs durante il training. Alcuni investitori prevedono che entro il 2026 verranno vendute GPU in grado di addestrare 1.000 modelli di livello GPT-5 – basandosi sul presupposto di 1,7×10^26 FLOPs per modello. L’AGI, per sua natura molto più complessa, comporterà costi di training che potrebbero raggiungere decine di miliardi di dollari. Morgan Stanley ha stimato che il training di GPT-5 abbia richiesto circa 225 milioni di dollari in GPU NVIDIA A100 (circa 25.000 unità), e che l’AGI richiederà una quantità di risorse computazionali molteplici rispetto a questa. Alcune previsioni suggeriscono addirittura che per realizzare l’AGI entro il 2030 saranno necessari investimenti pari a 1 trilione di dollari e il consumo del 20% dell’energia elettrica negli Stati Uniti, evidenziando come le attuali GPU H100/H200 non siano sufficienti.

Numero di GPU necessarie e dimensioni dell’infrastruttura:

Per sviluppare e gestire l’AGI saranno necessari cluster di GPU e infrastrutture per data center su scala molto superiore rispetto agli attuali sistemi di training AI. I più grandi cluster di training AI attualmente operativi comprendono decine di migliaia di GPU (ad esempio, i supercomputer di Microsoft e OpenAI che utilizzano decine di migliaia di GPU A100), ma per l’AGI potrebbero essere richieste centinaia di migliaia o addirittura milioni di GPU ad alte prestazioni connesse in parallelo, creando dei supercomputer di dimensioni senza precedenti. I costi iniziali di investimento potrebbero raggiungere la scala dei trilioni di dollari, con spese ingenti per la costruzione di data center, sistemi di raffreddamento e infrastrutture di fornitura elettrica.

Mustafa Suleyman, responsabile AI di Microsoft, ha dichiarato che “l’hardware della generazione attuale (come la GPU NVIDIA Blackwell GB200) non è sufficiente per realizzare l’AGI; saranno necessarie 2–5 nuove generazioni di innovazioni hardware”, il che implica che nei prossimi 5–10 anni sarà essenziale un progresso tecnologico significativo e un notevole aumento della produzione di chip. Nel terzo trimestre del 2024, la spesa in CapEx dei data center hyperscale negli Stati Uniti è aumentata dell’82%, con una parte considerevole destinata ai server accelerati. In fase di sviluppo dell’AGI, tali investimenti potrebbero ulteriormente espandersi, portando alla costruzione e gestione simultanea di più data center di scala exascale per un singolo progetto.

Consumo energetico e requisiti infrastrutturali fisici:

Per eseguire in modo continuo i compiti computazionali richiesti dall’AGI sarà inevitabile un consumo energetico enorme. Anche i modelli attuali, come GPT-4, consumano quantità significative di energia durante l’inferenza, e l’AGI è destinata a richiedere un consumo paragonabile a quello di supercomputer. Secondo alcune stime, entro il 2030 l’AI e la superintelligenza potrebbero assorbire fino al 20% del consumo elettrico totale degli Stati Uniti – un valore che equivale a centinaia di TWh, sufficiente a coprire il fabbisogno energetico di milioni di famiglie.

Pertanto, i data center per l’AGI non solo dovranno ospitare un numero enorme di GPU, ma sarà fondamentale disporre di una rete elettrica rafforzata e di un’infrastruttura progettata per massimizzare l’efficienza energetica. Tecnologie all’avanguardia come i processi di semiconduttori di nuova generazione (3nm → 2nm → 1nm), sistemi di raffreddamento a liquido, design modulari dei data center e altre innovazioni tecnologiche giocheranno un ruolo cruciale. NVIDIA ha già introdotto rack per GPU con raffreddamento a liquido e soluzioni per un PUE (Power Usage Efficiency) migliorato. Per ospitare decine di migliaia di GPU, un data center dedicato all’AGI potrebbe richiedere una superficie pari a quella di più campi da calcio e impianti elettrici su scala da trasformatori di grande capacità.

In sintesi, per realizzare l’AGI sarà necessario un investimento in hardware e infrastrutture almeno 10 volte superiore a quello dei sistemi attuali GPT-4/5, rappresentando una sfida enorme per fornitori di GPU come NVIDIA e produttori come TSMC, oltre che per i settori energetico e delle costruzioni.

Prospettive dei principali attori: Broadcom, SK Hynix e Samsung Electronics – Il futuro dei semiconduttori AI e dei data center

Broadcom:

Broadcom è stato a lungo un leader nel settore dei chip personalizzati per data center e ha rafforzato ulteriormente la sua posizione durante il boom dell’AI. Dopo aver collaborato allo sviluppo del Google TPU (a partire dalla prima generazione TPU v1 nel 2016), le entrate correlate a Google di Broadcom sono esplose, passando da 50 milioni di dollari nel 2015 a 750 milioni di dollari nel 2020.

L’azienda fornisce AI-ASIC personalizzati a grandi provider cloud come AWS e Microsoft, e vende anche chip di rete (switch, router, NIC) destinati ai data center AI. Nel primo trimestre del 2024, il fatturato di semiconduttori di Broadcom ha raggiunto 7,39 miliardi di dollari, dei quali 3,3 miliardi di dollari (con un incremento del 46% YoY) sono derivati dal settore delle reti, mentre le entrate relative agli AI-ASIC e ai chip di rete hanno totalizzato 2,3 miliardi di dollari, rappresentando il 31% del totale – una crescita di quattro volte rispetto all’anno precedente. Broadcom prevede che nel 2024 la quota di ricavi legata all’AI supererà il 35%, portando a un fatturato annuale AI superiore a 10 miliardi di dollari.

SK Hynix:

SK Hynix è tra i maggiori beneficiari del boom dell’AI, consolidando una posizione di leadership nel mercato della HBM (High Bandwidth Memory). Nel 2024, il fatturato di SK Hynix ha raggiunto 66,2 trilioni di won (circa 46,3 miliardi di dollari), con un incremento del 102% rispetto all’anno precedente, e un utile operativo di 23,5 trilioni di won, corrispondente a un margine operativo del 35%.

Grazie alla crescente domanda di DRAM per applicazioni AI, l’azienda è passata da perdite nel 2023 a registrare profitti significativi nel 2024, con le entrate HBM che costituiscono oltre il 40% del totale delle vendite di DRAM. SK Hynix fornisce HBM3 ad esempio per il chip NVIDIA H100, garantendosi una quota di mercato del 50% nel settore HBM, e la capacità produttiva per il 2024–2025 è già completamente prenotata. Il management prevede un ulteriore raddoppio dei ricavi HBM grazie alla continua crescita della domanda nel settore AI.

Samsung Electronics:

Samsung Electronics si sta preparando per l’era AI sia nel settore della memoria che in quello della foundry. Nel comparto memoria, Samsung ha accelerato la produzione di HBM3/3E per fornire ai principali clienti come NVIDIA e ha realizzato la prima soluzione con HBM3E a 12 strati, con la prospettiva di essere integrata nelle prossime generazioni di GPU NVIDIA.

Nonostante la quota di mercato di Samsung sia leggermente inferiore rispetto a SK Hynix (con una quota HBM prevista del 42% per il 2024), l’azienda punta a riconquistare la leadership attraverso investimenti R&D aggressivi mirati a sviluppare HBM4 a 16 strati.

Nel settore della foundry, per competere con TSMC, Samsung ha introdotto al mondo il processo 3nm GAA, sebbene abbia affrontato iniziali problemi di resa; tuttavia, con la recente stabilizzazione dei processi, Samsung ha annunciato l’intenzione di avviare la produzione in massa del processo 2nm nella seconda metà del 2025, e di iniziare la produzione 2nm nel suo stabilimento in Texas nel 2026, espandendo così la propria capacità produttiva globale.

Inoltre, Samsung sta preparando l’era del 1nm (o 1,4nm) adottando soluzioni di processo all’avanguardia, mentre TSMC sta pianificando un nodo 1,6nm (una versione migliorata del 2nm) per il 2026. Sebbene attualmente Samsung sia leggermente indietro rispetto a TSMC dal punto di vista tecnologico, con investimenti massicci e innovazioni, esiste il potenziale per colmare il divario.

TSMC vs Samsung Electronics: Prospettive per la produzione di semiconduttori destinati all’AGI (1nm vs. 2nm)

Processi ottimali per l’AGI:

Per sviluppare chip destinati all’AGI, è essenziale utilizzare i processi semiconduttori più avanzati per massimizzare la densità di integrazione e ottimizzare l’efficienza energetica. Secondo le roadmap attuali, un processo a 2nm con tecnologia gate-all-around (GAA) sarà prodotto in massa intorno al 2025–2026, seguito da un processo 1.x nm (con una lunghezza del gate inferiore a 10Å) previsto per il 2027–2028.

Il termine “processo a 1nm” comprende in realtà varianti migliorate del processo a 2nm, come 1,4nm e 1,2nm. Ad esempio, TSMC prevede di introdurre un nodo 1,6nm (N1.6) intorno al 2026, mentre Samsung mira a produrre in massa un processo a 1,4nm nel 2027.

Dal punto di vista del design dei chip, un processo a 1nm permetterebbe una densità di transistor molto superiore rispetto al 2nm, consentendo un aumento significativo del calcolo parallelo e una riduzione del consumo energetico del 20–30% a parità di prestazioni. Sia TSMC che Samsung puntano a miglioramenti del 10–15% in velocità e del 25–30% in efficienza energetica nel passaggio al 2nm, il che rende il processo a 1nm un fattore chiave per realizzare hardware AGI efficiente ed economicamente vantaggioso.

Sviluppo e fattibilità del processo a 1nm:

Le ricerche per nodi inferiori a 1nm sono già in corso, e i principali foundry puntano a una produzione in massa nella seconda metà degli anni 2020. TSMC ha annunciato recentemente l’intenzione di produrre chip con un’integrazione fino a 1 trilione di transistor entro il 2030, mentre la roadmap di IMEC in Belgio indica che sono già in corso ricerche per nodi da 0,7nm e 0,5nm.

Nonostante le sfide tecniche siano significative, proprio come il passaggio da 5nm a 3nm è stato superato grazie a nuovi materiali (come i nanosheet e i materiali 2D) e tecnologie innovative (come la litografia high-NA EUV), anche il processo a 1nm dovrebbe essere raggiunto tramite simili innovazioni – per esempio, estendendo la tecnologia GAA-FET o adottando strutture di transistor avanzate come MBCFET.

La possibilità per Samsung di colmare il divario tecnologico con TSMC:

Storicamente, Samsung ha avuto un ritardo tecnologico di circa 12 anni rispetto a TSMC, ma con l’adozione della tecnologia 3nm GAA questo divario sta gradualmente riducendosi, anche se TSMC mantiene ancora un leggero vantaggio. Nel periodo 2022–2023, Samsung ha perso una parte significativa degli ordini di Qualcomm e NVIDIA a causa di problemi iniziali con i processi a 4nm/3nm, mentre TSMC, grazie a una produzione stabile a 3nm, ha consolidato la fiducia dei clienti, fornendo con successo chip per iPhone 16 Pro.

Per la generazione a 2nm, tuttavia, le prospettive potrebbero cambiare: con l’aumentare delle probabilità che Qualcomm affidi a Samsung la produzione dei chip Snapdragon a 2nm previsti per il 2025–2026, Samsung potrà accumulare preziosa esperienza e rafforzare la sua competitività in vista del passaggio al nodo a 1,4nm. Inoltre, le politiche di sostegno alle foundry promosse da Stati Uniti ed Europa creeranno un contesto favorevole per Samsung.

Tecnicamente, il processo a 2nm di TSMC rappresenta il primo passaggio dalla tecnologia FinFET a quella basata su nanosheet GAA, mentre il processo a 2nm di Samsung si basa sull’esperienza maturata con il 3nm. Alcune analisi suggeriscono che il 2nm di TSMC offrirà un miglioramento in termini di efficienza energetica del 30% rispetto a un miglioramento del 25% di Samsung, anche se si tratta di obiettivi iniziali e le prestazioni finali saranno il frutto di una competizione serrata. Nell’era a 1nm, entrambe le aziende affronteranno territori inesplorati, offrendo a Samsung l’opportunità di colmare completamente il divario tecnologico.

Dal punto di vista degli investitori, una riduzione del gap tecnologico significherebbe una maggiore redditività e un potenziale incremento della capitalizzazione di mercato per Samsung, anche se rappresenterebbe allo stesso tempo una sfida per la leadership tecnologica di TSMC. In definitiva, nell’era AGI a 1nm è probabile che entrambe le aziende vi accedano con successo, garantendo una competizione equilibrata nel medio-lungo termine, elemento favorevole alla stabilità della capacità produttiva dei chip AI avanzati.

  1. L’impatto dell’AI Generativa sulle azioni NVIDIA e TSMC nel 2025
  2. Rivoluzione dell’AI Generativa: Opportunità di investimento in NVIDIA e TSMC

NVIDIA GTC 2025: Analisi e Approfondimenti

🔎 Parole chiave SEO: GPT-5, GPT-6, Groq-4, Groq-5, NVIDIA, TSMC, semiconduttori AI, capitalizzazione di mercato, data center, HBM, 2nm, 1nm, AGI

💡 Sintesi:

L’adozione delle tecnologie GPT-5/6 e degli innovativi acceleratori Groq sta spingendo la domanda di chip AI per data center a livelli esplosivi. Grazie a questa spinta, NVIDIA ha visto il suo fatturato AI passare da 1 trilione a 3 trilioni di dollari nel 2024, mentre TSMC ha registrato un aumento del 58% nelle entrate HPC e un rialzo superiore al 90% nel prezzo delle azioni. Per realizzare l’AGI saranno necessari fino a 10 volte più GPU e data center di dimensioni enormi, supportati da infrastrutture avanzate per l’energia e il raffreddamento. Parallelamente, leader di settore come Broadcom (ASIC AI personalizzati e soluzioni di rete), SK Hynix (memorie HBM) e Samsung Electronics (tecnologie foundry all’avanguardia) stanno registrando una crescita notevole in termini di fatturato e redditività. La competizione tra TSMC e Samsung nel settore delle tecnologie a 2nm/1nm sarà determinante per il futuro dell’AGI e del mercato dei semiconduttori AI, che è destinato a crescere a tassi annuali superiori al 2030%.

Torna in alto