
Panoramica NVIDIA GTC 2025: dalla Keynote di Jensen Huang alle Strategie di Investimento in AI
La conferenza annuale sulla tecnologia GPU (GTC) di NVIDIA per il 2025 si avvicina rapidamente. Ogni anno, durante la keynote della GTC, il CEO Jensen Huang presenta tecnologie rivoluzionarie e visioni che sconvolgono l’industria. Per il GTC 2025 sono attese grandi novità in vari settori come l’intelligenza artificiale, i data center, la guida autonoma e le architetture GPU. In questa analisi approfondita esamineremo le probabili nuove tecnologie che verranno presentate al NVIDIA GTC 2025 e il loro potenziale impatto. Verrà inoltre analizzato come le keynote precedenti di Jensen Huang abbiano influenzato il prezzo delle azioni di NVIDIA attraverso l’analisi dei dati, concentrandosi sui modelli di prezzo e sulle reazioni degli investitori prima e dopo gli eventi. Inoltre, verranno presentate le prospettive del mercato GPU oltre il 2025, confrontando le strategie di NVIDIA con quelle dei concorrenti (AMD, Intel, Google TPU) e valutando gli effetti potenziali degli annunci su importanti aziende AI come Microsoft, OpenAI e Tesla, sia in termini di collaborazione che di competizione. Infine, verranno sintetizzate le opinioni degli analisti di Wall Street riguardo agli investimenti in NVIDIA e alle target price, e verranno analizzati i pro e i contro di mantenere le azioni NVIDIA come investimento a lungo termine rispetto alla vendita immediata dopo eventi importanti. Supportato dai dati ufficiali più recenti e dai rapporti degli analisti globali, questo articolo offre approfondimenti di alta qualità in linea con i principi E-E-A-T (Esperienza, Competenza, Autorità e Affidabilità) di Google.
Nuove Tecnologie Attese nella Keynote di Jensen Huang al GTC 2025 e il Loro Impatto
Esaminiamo le tecnologie innovative che il CEO Jensen Huang probabilmente presenterà durante la keynote del NVIDIA GTC 2025. Basandosi sugli indizi già presentati al CES 2025 e sulle roadmap del settore, si prevede l’introduzione delle seguenti nuove tecnologie:
- Architettura GPU di prossima generazione “Blackwell” per prodotti: Al CES 2025, Jensen Huang ha tenuto una keynote in cui ha presentato per la prima volta la serie GeForce RTX 50, dotata dell’architettura Blackwell. Questo ha portato alla presentazione di nuove GPU, come la RTX 5090, e al GTC 2025 si prevede l’annuncio di un acceleratore AI basato su Blackwell destinato ai data center. NVIDIA sta già preparando la sua prossima generazione di acceleratori AI, Blackwell, come successore dell’“incredibilmente popolare” Hopper (H100), con l’obiettivo di lanciarla entro la fine del 2024. L’architettura Blackwell punta a miglioramenti prestazionali drammatici rispetto alla generazione precedente, grazie ad un maggior numero di transistor e ad una maggiore larghezza di banda della memoria. È specificamente ottimizzata per l’accelerazione nei data center e nei sistemi HPC, eliminando i colli di bottiglia e migliorando la scalabilità per ogni tipo di carico di lavoro. Ad esempio, viene introdotto un design multi-chip che consente a due chip GPU di funzionare come un’unica GPU, con un design dual GPU B200, collegato tramite un’interconnessione ultraveloce da 10 TB/s, denominata NV-HBI, che permette prestazioni paragonabili a quelle di una singola GPU. Questo consente di superare i limiti imposti da un singolo chip. Inoltre, la generazione Blackwell introduce una seconda generazione di Transformer Engine che supporta FP8 e ora anche FP4, il che si prevede aumenterà le prestazioni di inferenza per modelli linguistici ultragrandi fino a 30 volte e migliorerà l’efficienza energetica di 25 volte. Utilizzando calcoli a bassa precisione misti (una combinazione di FP4/FP6), i requisiti di memoria saranno drasticamente ridotti e il throughput dell’inferenza massimizzato, abbassando significativamente i costi di inferenza per servizi AI su larga scala come ChatGPT. Questi nuovi prodotti basati su Blackwell (come i modelli B100, B200, ecc.) sono programmati per essere distribuiti in massa a partire dalla seconda metà del 2025, e NVIDIA investe ben 16 miliardi di dollari all’anno in R&S, con tre team di progettazione che lavorano in parallelo per mantenere una roadmap aggressiva, lanciando nuovi prodotti ogni 18–24 mesi. Questo rapido ritmo di sviluppo sarà difficile da eguagliare per i concorrenti, rafforzando ulteriormente la leadership tecnologica di NVIDIA.
- Piattaforma AI NVIDIA Cosmos: Introdotta al CES 2025, la piattaforma Cosmos è la tecnologia chiave che NVIDIA sostiene inaugurerà l’era della “Physical AI”. La piattaforma comprende nuovi modelli AI e pipeline per l’elaborazione di dati video, progettati per la robotica, i veicoli autonomi e la vision AI, rafforzando così l’utilizzo dell’AI nel campo della robotica e della guida autonoma. Jensen Huang ha evidenziato l’emergere di “AI che percepisce, ragiona, pianifica e agisce” – in altre parole, l’ascesa dell’Agentic AI – sottolineando che un’AI che opera attivamente nel mondo reale, oltre alle funzioni generative, rappresenta la prossima fase. La piattaforma Cosmos offre una soluzione integrata che copre tutto, dal riconoscimento dei sensori al processo decisionale e al controllo, ed è specificamente progettata per l’elaborazione in tempo reale di dati video e visivi su larga scala. Durante il GTC 2025 saranno probabilmente presentate specifiche tecniche dettagliate ed esempi di applicazioni pratiche in robotica e veicoli autonomi. Inoltre, ci si aspetta che la piattaforma venga integrata con i software NVIDIA Isaac per la robotica e le suite DRIVE, accelerando lo sviluppo della prossima generazione di robot e veicoli a guida autonoma. Tali innovazioni nell’AI per la robotica porteranno probabilmente a un’adozione su larga scala di robot umanoidi e macchine autonome in settori come la logistica, la produzione e i servizi, diventando così un nuovo motore di crescita per NVIDIA.
- Innovazioni nei PC AI e nelle piattaforme per sviluppatori: NVIDIA mira a diffondere la tecnologia AI anche nel settore dei PC. Al CES 2025 sono stati presentati un “framework AI per PC basati su RTX”, insieme a microservizi NVIDIA NIM e AI Blueprints; questi strumenti supportano la creazione di contenuti generativi AI (ad esempio, esseri umani digitali, podcast automatizzati, generazione di immagini e video) su PC standard. Al GTC 2025 è atteso il lancio della prossima generazione di workstation o di una piattaforma PC ottimizzata per l’AI, dotata di accelerazione AI. Ad esempio, un sistema compatto per sviluppatori con il nome in codice Project DIGITS – basato sulla combinazione della CPU Arm di NVIDIA, Grace e della più recente GPU Blackwell – è stato menzionato al CES come soluzione desktop per sviluppatori. Specifiche dettagliate e la pianificazione del lancio potrebbero essere presentate durante il GTC. Queste innovazioni nei PC AI e nelle piattaforme per sviluppatori permetteranno anche ai più piccoli sviluppatori e ricercatori di utilizzare facilmente la tecnologia AI all’avanguardia, ampliando così la base dell’ecosistema AI. Inoltre, la tendenza a dotare i PC consumer di motori AI dedicati (come copilot AI e l’elaborazione in tempo reale di video e audio AI) è destinata ad accelerare, posizionando le GPU NVIDIA come acceleratori AI indispensabili anche per l’uso personale.
- Aggiornamento del chip di calcolo integrato per veicoli autonomi “DRIVE Thor”: Nel settore automobilistico, il prossimo SoC per veicoli di NVIDIA, DRIVE Thor, è uno dei temi centrali attesi al GTC 2025. DRIVE Thor fu introdotto concettualmente già al GTC 2022 e si prevede che, a partire dal 2025, verrà implementato nei veicoli prodotti in massa come computer centrale dell’auto. Integrando l’ultima architettura GPU Blackwell e core di calcolo basati su Arm, Thor è progettato per gestire tutte le funzioni AI di un veicolo – inclusi guida autonoma, infotainment e fusione dei sensori – su un unico chip. Con oltre 20 volte la potenza di calcolo AI e caratteristiche che offrono fino a 128 GB di VRAM, NVIDIA sottolinea che “ora è possibile implementare AI generativa, il monitoraggio del conducente e la guida autonoma di livello 4 direttamente all’interno dell’auto.” Durante il GTC 2025 saranno presentate specifiche dettagliate, lo stato delle collaborazioni e gli strumenti di sviluppo per DRIVE Thor. L’azienda cinese di veicoli elettrici Zeekr ha già mostrato un sistema di guida intelligente basato su Thor al CES 2025, e l’azienda di camion autonomi Aurora, insieme al fornitore Continental, collabora con NVIDIA per sviluppare camion senza conducente basati su Thor. Queste ampie collaborazioni nel settore automobilistico rafforzeranno ulteriormente la posizione di NVIDIA come il “cervello” de facto della guida autonoma per quasi tutti gli OEM globali, ad eccezione di Tesla. I miglioramenti attesi in NVIDIA Drive OS e nella piattaforma Hyperion avranno anche importanti implicazioni per il rispetto degli standard di sicurezza e qualità, oltre a migliorare l’efficienza nello sviluppo dei sistemi di guida autonoma. Il mercato delle soluzioni di calcolo AI nel settore automobilistico è destinato a crescere notevolmente dopo il 2025, e il lancio di Thor indica che NVIDIA intende offrire una piattaforma standard in questo segmento, stimolando potenzialmente lo sviluppo di veicoli definiti dal software (SDV).
- Altre possibili presentazioni: Durante il GTC 2025 potrebbero essere annunciati anche aggiornamenti di NVIDIA Omniverse (una piattaforma metaverso industriale e di simulazione), piani relativi al quantum computing (con Jensen Huang che probabilmente modererà un panel sul quantum computing), nuovi prodotti per l’edge AI e per DPU nelle infrastrutture di comunicazione (come BlueField), aggiornamenti per l’AI in ambito medico (piattaforma Clara) e soluzioni AI native per il cloud. Nelle sue recenti keynotes, Jensen Huang ha costantemente enfatizzato la strategia piattaforma di NVIDIA, che comprende sia l’hardware (GPU, DPU, CPU) sia gli stack software (CUDA, framework AI, Omniverse) per costruire un ecosistema completo. È quindi probabile che presenterà una visione ampliata non solo per i singoli prodotti ma anche per la piattaforma di accelerazione di NVIDIA. Ad esempio, potrebbe affermare che “NVIDIA, in qualità di azienda full-stack per il calcolo, offre una soluzione integrata con X86 + GPU + DPU + software per l’era dell’AI.” Questo messaggio dà ai clienti aziendali la fiducia che “con NVIDIA ottieni tutti i livelli necessari per l’innovazione AI,” aumentando così la domanda futura per l’offerta di prodotti NVIDIA e creando un forte effetto lock-in.
Impatto dei Nuovi Annunci e Prospettive di Crescita Futuristica di NVIDIA
Le nuove tecnologie che verranno presentate al GTC 2025 avranno probabilmente un impatto significativo sia sull’industria dell’AI nel suo complesso sia sulle prospettive di crescita futura di NVIDIA:
- Impatto sulla ricerca AI e sull’industria: Le GPU di prossima generazione, basate sull’architettura Blackwell, aumenteranno la scala e la velocità di addestramento e inferenza dei modelli AI. Ad esempio, si prevede che una singola GPU Blackwell fornirà 10 petaflops in operazioni FP8 e 20 petaflops in operazioni sparse FP4, il che comporta prestazioni di addestramento oltre 2,5 volte superiori e prestazioni di inferenza 20 volte maggiori rispetto all’attuale modello top H100. Ciò permetterà ai ricercatori di addestrare modelli linguistici enormi, contenenti centinaia di miliardi fino a trilioni di parametri, in tempi molto più rapidi, mentre i fornitori di servizi AI potranno aumentare significativamente l’inferenza in tempo reale per offrire funzionalità AI migliorate agli utenti. Inoltre, l’utilizzo di calcoli a bassa precisione (tramite FP4) ridurrà notevolmente i costi dei servizi AI diminuendo i requisiti di memoria. L’introduzione della piattaforma “Physical AI” Cosmos semplificherà e accelererà lo sviluppo della robotica e dell’AI autonoma, potenzialmente portando a un’esplosione nell’applicazione dell’AI in settori quali l’automazione industriale, la robotica logistica e le smart city. Questo segna una transizione in cui l’AI non si limita più a elaborare informazioni virtuali, ma guida anche l’automazione nel mondo reale, accelerando la Quarta Rivoluzione Industriale.
- Impatto sui data center e sul cloud: Le nuove soluzioni per data center di NVIDIA (come gli acceleratori Blackwell, il superchip Grace-Blackwell e gli aggiornamenti di NVLink/NVSwitch) sono progettate per aumentare drasticamente la capacità di elaborazione AI nei data center su scala iperscalare. In particolare, l’integrazione stretta tra la CPU Grace e la GPU Blackwell (ad esempio, il superchip GB200 che segue il GH200) riduce i colli di bottiglia tra CPU e GPU e semplifica l’elaborazione di grandi quantità di dati mediante una memoria unificata, elemento essenziale per costruire infrastrutture AI massicce nel cloud. I provider cloud, come Azure, adotteranno probabilmente questi nuovi chip NVIDIA per creare enormi parchi di addestramento e inferenza AI, rafforzando la loro capacità di fornire servizi AI a clienti che variano dalle startup alle grandi aziende. Inoltre, piattaforme server come la NVIDIA HGX B200, che collega otto GPU B200 tramite NVLink su una singola scheda per fornire capacità di calcolo AI a livello di exaflop, rappresentano un’innovazione rivoluzionaria in termini di densità ed efficienza energetica nei data center. Ciò consente alle aziende di eseguire più calcoli AI con un numero inferiore di server, riducendo il costo totale di proprietà (TCO), mentre i provider cloud massimizzano le prestazioni nonostante limiti di potenza e spazio. Questi progressi rafforzeranno ulteriormente la dominanza di NVIDIA nel mercato dell’infrastruttura AI. Secondo Morgan Stanley, la quota di mercato mondiale di NVIDIA per i semiconduttori AI su wafer dovrebbe salire da circa il 51% nel 2024 al 77% nel 2025, indicando una domanda esplosiva per i chip NVIDIA rispetto ai concorrenti. Con l’aumento degli investimenti in sistemi basati su Blackwell da parte dei provider cloud e dei data center dopo gli annunci al GTC 2025, le attività dei data center di NVIDIA cresceranno a un ritmo ultrasveloce e diventeranno il principale motore di crescita dell’azienda.
- Impatto sulla guida autonoma e sull’industria automobilistica: I chip per l’automotive più recenti di NVIDIA, inclusi DRIVE Thor, stanno diventando una componente chiave nella tendenza verso veicoli definiti via software adottata dai produttori automobilistici. Dal 2025, i veicoli dotati di Thor integreranno decine di ECU individuali in un unico computer centrale ad alte prestazioni, riducendo significativamente i costi di sviluppo e la complessità. Adottando la piattaforma NVIDIA, i produttori di automobili potranno migliorare funzionalità come la guida autonoma, i sistemi di assistenza alla guida e l’infotainment (IVI) tramite aggiornamenti OTA, e al contempo creare nuovi modelli di ricavo (ad esempio, servizi in abbonamento per la guida autonoma). NVIDIA ha già stretto partnership strategiche con vari OEM, tra cui Mercedes-Benz, Jaguar Land Rover e Volvo, e ha recentemente annunciato una collaborazione con Toyota per lo sviluppo della prossima generazione di veicoli. Ciò indica che i produttori tradizionali stanno abbracciando attivamente la tecnologia NVIDIA per competere con Tesla, rafforzando ulteriormente la posizione di NVIDIA come piattaforma standard nel settore automobilistico. Se al GTC 2025 verranno presentati ulteriori esempi di partnership e nuove collaborazioni, NVIDIA consoliderà ulteriormente la propria posizione nell’industria automobilistica. Sebbene il settore automobilistico rappresenti attualmente meno del 3% dei ricavi totali di NVIDIA, il potenziale a lungo termine per una crescita significativa è elevato, e con la crescente popolarità della guida autonoma, questo settore potrebbe evolversi in una nuova importante fonte di ricavi.
- Collegamento con la Crescita Futuristica di NVIDIA: In sintesi, le nuove tecnologie che verranno presentate al GTC 2025 sono strettamente legate alla visione di crescita a lungo termine di NVIDIA. Jensen Huang ha recentemente sottolineato che “tutti i settori vengono trasformati dall’AI”, posizionando NVIDIA come il motore di tale trasformazione. Quello che è iniziato con le GPU si è ora espanso includendo CPU, DPU, software e servizi, trasformando NVIDIA in un’azienda di calcolo AI a tutto tondo. Gli annunci al GTC 2025 rafforzeranno ulteriormente questa strategia full-stack, facendo crescere esponenzialmente il mercato totale indirizzabile (TAM) di NVIDIA. Durante il GTC 2022, NVIDIA ha incrementato la sua previsione di mercato a lungo termine a 1 bilione di dollari, combinando segmenti come gaming, AI aziendale, Omniverse e il settore automobilistico. Con la crescente domanda nei data center, trainata dall’AI generativa, tale previsione sarà probabilmente ancora più elevata. Wedbush Securities ha dichiarato che “la rivoluzione AI è la più grande trasformazione tecnologica in 40 anni, e il suo inizio risale a Jensen Huang,” prevedendo che le spese in capitale legate all’AI supereranno i 2 bilioni di dollari nei prossimi tre anni. Posizionata nel cuore di questo enorme flusso di cassa, gli annunci al GTC 2025 testimonieranno l’impegno incrollabile di NVIDIA per l’innovazione e la determinazione a non perdere nessuna opportunità di mercato. In breve, ci si aspetta che i nuovi annunci tecnologici al GTC 2025 fungano da motore di crescita per NVIDIA nei prossimi 5–10 anni, mentre l’azienda consolida la sua posizione in settori in rapida espansione come l’AI, i data center e la guida autonoma.
Keynote Precedenti di Jensen Huang e l’Impatto sul Titolo NVIDIA: Effetti Basati sui Dati
Le keynote del CEO di NVIDIA, Jensen Huang, non sono importanti solo per il settore tecnologico, ma sono seguite con grande attenzione anche dal mercato azionario. Il titolo di NVIDIA ha spesso mostrato oscillazioni a breve termine in risposta agli annunci effettuati durante eventi importanti come il GTC. Un’analisi delle keynote passate e dei movimenti del titolo rivela diversi interessanti schemi.
Rally di Aspettative prima dell’Annuncio vs. Realizzazione di Profitti dopo l’Annuncio
Prima dei grandi eventi tecnologici, gli investitori tendono ad acquistare azioni in attesa degli annunci. Nel caso di NVIDIA, il titolo spesso sale proprio prima di una grande keynote. Ad esempio, durante il CES 2024 il titolo di NVIDIA è salito del 5% in un solo giorno, quando gli investitori attendevano la keynote di Jensen Huang, quasi raggiungendo un massimo storico. Il giorno della keynote del CES 2024 (a gennaio) il titolo è salito del 6,4%, seguito da ulteriori aumenti nei due giorni successivi, quando il mercato ha reagito positivamente. Bank of America ha osservato in un’analisi che “il titolo di NVIDIA tende a performare fortemente attorno alle keynote di Jensen Huang durante il CES”, un modello che è stato riscontrato anche al CES 2025. Tali rally di aspettative prima degli eventi si verificano anche al GTC; voci su una nuova architettura GPU o su un nuovo prodotto fanno sì che il titolo venga prezzato in modo positivo già in anticipo.
Tuttavia, subito dopo l’annuncio, la presa di profitti può portare a un calo temporaneo del titolo – il classico fenomeno “sell the news”. Un esempio si è verificato durante il GTC 2024 di marzo, quando Jensen Huang ha presentato per la prima volta il design della prossima generazione di processori, Blackwell, e la reazione immediata del mercato fu che “le aspettative sono state soddisfatte senza una sorpresa significativa.” Di conseguenza, il titolo di NVIDIA è sceso di circa il 2% nelle contrattazioni after-hours, interpretato come investitori che hanno preso profitti dopo che il rally pre-annuncio aveva già spinto il titolo verso l’alto. È interessante notare che le azioni delle aziende partner menzionate da Jensen Huang sono invece aumentate. Durante la keynote del GTC 2024, ad esempio, i titoli di società di software ingegneristico come Synopsys, Cadence e ANSYS sono saliti di oltre il 2% dopo l’annuncio che avrebbero beneficiato del software AI basato su Blackwell di NVIDIA, mentre anche il titolo di Dell è aumentato del 3,2% dopo le lodi di Jensen Huang. Quando Jensen Huang ha dichiarato “non esiste alcuna azienda che costruisca soluzioni end-to-end altrettanto bene quanto Dell per creare una fabbrica AI”, il mercato ha reagito immediatamente. Così, la comunicazione di Jensen Huang ha avuto un effetto a catena non solo su NVIDIA, ma ha influenzato anche i titoli dei suoi partner.
Casi Significativi dai Dati di Mercato
- Keynote CES, gennaio 2024: Il titolo è salito del 6,4% il giorno della keynote, seguito da ulteriori aumenti nei due giorni successivi. (Dopo mesi di stagnazione, l’evento ha causato una svolta.)
- Keynote GTC, marzo 2024: Il titolo è sceso tra l’1,5% e il 2% il giorno dell’annuncio (dopo essere stato già valutato molto alto a causa di un rally agli inizi dell’anno, portando alla presa di profitti).
- Keynote GTC, marzo 2023: Tenutosi durante l’hype di ChatGPT. Jensen Huang ha evidenziato il potenziale dell’AI generativa e ha presentato nuovi prodotti, causando un modesto aumento del titolo attorno all’evento. (Un aumento più marcato si è verificato successivamente a maggio durante i risultati trimestrali.)
- Keynote GTC, marzo 2022: Annuncio dell’architettura Hopper (H100) e di una nuova visione aziendale. Il titolo è rimasto stabile il giorno dell’evento, per poi iniziare a salire nelle settimane successive, con gli analisti che hanno osservato che “ha infuso fiducia nei futuri punti di svolta dell’AI.”
- Altri: Ci sono stati casi in cui le oscillazioni del titolo si sono verificate quando Jensen Huang ha menzionato grandi clienti AI durante altri eventi (ad esempio a Computex 2023) o quando le keynote coincidevano con i rapporti trimestrali (ad esempio intorno al GTC di febbraio 2025), influenzando il sentiment generale del mercato.
In sintesi, sebbene il titolo di NVIDIA tenda a guadagnare slancio a breve termine intorno alle keynote di Jensen Huang, la direzione finale dipenderà da quanto gli annunci effettivi sorprenderanno rispetto alle aspettative. Quando prodotti rivoluzionari superano le aspettative del mercato (come avvenne con il lancio dell’architettura Ampere nel 2020), il titolo può salire notevolmente subito dopo l’evento; ma nella maggior parte dei casi il titolo si corregge brevemente dopo la fase di hype per riprendere la sua tendenza ascendente a lungo termine.
Sentiment degli Investitori e Tendenze a Lungo Termine del Titolo
Le keynote di Jensen Huang hanno costantemente rafforzato la fiducia degli investitori nella roadmap tecnologica di NVIDIA. Ad esempio, durante il GTC 2022, NVIDIA ha presentato la sua visione pluriennale per l’AI e il software (incluso un TAM di 1 bilione di dollari), aumentando le aspettative degli investitori e spingendo gli analisti ad alzare i loro target, spesso affermando che l’azienda è “il leader della rivoluzione AI.” Credit Suisse ha previsto che “l’architettura Hopper sarebbe stata il miglior miglioramento generazionale di sempre,” e Rosenblatt Securities ha mantenuto una forte raccomandazione di acquisto descrivendola come un “punto di svolta da trilioni di dollari che comprende gaming, AI aziendale, Omniverse e l’industria automobilistica.” Questo ottimismo tra gli investitori professionali ha sostenuto la tendenza ascendente a lungo termine del titolo di NVIDIA, nonostante le oscillazioni a breve termine.
Naturalmente, ci sono stati anche picchi e cali a breve termine. All’inizio del 2025, nonostante un impressionante aumento del 178% della capitalizzazione di mercato nel 2024 trainato dal boom dell’AI, il titolo di NVIDIA è sceso dell’8% in un solo giorno dopo una previsione trimestrale a febbraio 2025 in cui si dichiarava che “le aspettative erano buone, ma non ai livelli di leader di mercato.” Questo è avvenuto in parte perché gli investitori, abituati a crescite superiori al 100%, sono rimasti delusi da una previsione di crescita dei ricavi del 65%, e ha riflesso anche una certa cautela quando gli investimenti in AI hanno raggiunto il loro picco. Sebbene il mercato possa raffreddarsi a breve termine, finché questi fondamentali di crescita rimangono validi, il titolo di NVIDIA continuerà a salire a medio-lungo termine. Conosciuta come il “barometro AI”, la capitalizzazione di mercato di NVIDIA ha superato i 3 bilioni di dollari durante il boom dell’AI del 2023–2024, e gli investitori attendono con ansia i discorsi di Jensen Huang per la prossima fase di crescita.
In sintesi, le keynote di Jensen Huang hanno agito come catalizzatori a breve termine per il titolo di NVIDIA. Prima dell’annuncio, il titolo beneficia dell’entusiasmo degli investitori, mentre le correzioni dopo l’annuncio dipendono dalla capacità degli annunci di soddisfare le aspettative. Alla fine, il titolo di NVIDIA è guidato dalla realizzazione della visione presentata da Jensen Huang e dalla crescita strutturale del mercato AI. Gran parte della sua visione ambiziosa (come l’ascesa del calcolo GPU, la rivoluzione del deep learning, l’AI-first computing, ecc.) si è rivelata in gran parte corretta, e il titolo ha ripagato enormemente gli investitori precoci nel tempo. Da un prezzo di poche decine di dollari all’inizio degli anni 2010, il titolo di NVIDIA è salito a centinaia di dollari (prima dello split) a metà degli anni 2020, offrendo rendimenti straordinari a chi ha investito in anticipo, nonostante alcuni cali. Ciò dimostra che le keynote di Jensen Huang non sono semplici spettacoli, ma veri e propri piani d’azione – una ragione fondamentale per cui gli investitori ascoltano attentamente le sue parole. Tali schemi probabilmente continueranno, e sebbene il GTC 2025 possa causare volatilità a breve termine, alla fine rafforzerà la fiducia nel futuro percorso di NVIDIA.
Prospettive del Mercato GPU Oltre il 2025: NVIDIA vs. AMD, Intel e TPU
Come sarà il mercato delle GPU e degli acceleratori AI dopo il 2025? Sulla base delle tendenze attuali e delle strategie adottate dalle aziende, ci si aspetta che NVIDIA manterrà la sua posizione di leader indiscusso, mentre i concorrenti cercheranno di sfruttare nicchie di mercato. In particolare, sebbene la dominanza di NVIDIA negli acceleratori AI per data center probabilmente continuerà nel prossimo futuro, concorrenti come AMD, Intel e Google (TPU) adotteranno contromisure. Analizziamo ciascun aspetto in dettaglio.
NVIDIA: Quota di Mercato Travolgente e una Roadmap Aggressiva
NVIDIA è già leader nel mercato degli acceleratori AI e investe pesantemente per espandere ulteriormente il proprio vantaggio. Secondo Morgan Stanley, nel 2024 NVIDIA ha consumato il 51% della capacità globale dei wafer per processori AI, e si prevede che la sua quota salirà al 77% nel 2025. In confronto, tutti gli altri concorrenti insieme rappresentano solo il 23%, il che significa che NVIDIA assorbe la stragrande maggioranza della domanda di chip AI. In particolare, si prevede che la quota di Google scenderà dal 19% al 10%, quella di Amazon AWS dal 10% al 7% e quella di AMD dal 9% al 3%, evidenziando come NVIDIA occupi una posizione indiscussa. Inoltre, NVIDIA ha assicurato un vantaggio notevole fissando una capacità produttiva molto maggiore presso produttori come TSMC rispetto ai concorrenti.
Per quanto riguarda la roadmap tecnologica, NVIDIA si distingue per la sua forte innovazione. Anche dopo il lancio dei prodotti Blackwell (B100/B200) alla fine del 2024 fino al 2025, NVIDIA ha già avviato, secondo quanto riferito, lo sviluppo della sua prossima architettura (la cosiddetta serie 300). L’azienda prevede di aumentare il budget per R&S nel 2024 a 16 miliardi di dollari, gestendo tre linee di prodotto in parallelo e rilasciando nuovi prodotti ogni 18–24 mesi – investimenti che superano di gran lunga quelli dei concorrenti. Questa scala e il rapido ritmo di sviluppo continueranno a favorire NVIDIA nel plasmare il futuro mercato delle GPU. Inoltre, l’ecosistema software CUDA di NVIDIA rimane un vantaggio importante, poiché sviluppatori e aziende continuano a preferire NVIDIA per le prestazioni e per la maturità del suo ecosistema. Un’analisi di SemiAnalysis ha osservato che “la forza dell’ecosistema NVIDIA risiede nella capacità di permettere lo sviluppo e l’espansione su una medesima piattaforma, sia che si tratti di una GPU da gaming da poche centinaia di dollari o di un cluster composto da decine di migliaia di GPU,” suggerendo che NVIDIA manterrà il suo vantaggio grazie alla vasta partecipazione degli sviluppatori, a differenza dei concorrenti con accesso hardware limitato.
Tuttavia, NVIDIA deve affrontare sfide a causa dell’enorme domanda. Con la rapida crescita del mercato, potrebbero verificarsi carenze di prodotti come l’H100, e i clienti – in particolare i provider cloud – potrebbero cercare di ridurre la loro dipendenza da NVIDIA sfruttando il loro potere contrattuale. Tuttavia, a breve termine, sono poche le alternative che possono competere con le prestazioni e l’ecosistema di NVIDIA, motivo per cui alcuni affermano che “NVIDIA è l’unico giocatore in città” nel mercato dei chip AI. L’opinione generale è che NVIDIA manterrà il suo enorme vantaggio sui concorrenti per i prossimi anni, con Wedbush che prevede che NVIDIA rimarrà il principale beneficiario degli investimenti in AI fino a ben oltre il 2025.
AMD: Molto promettente dal punto di vista tecnologico, ma con sfide legate all’ecosistema e all’adozione
Tradizionalmente, AMD è considerata l’unica rivale di NVIDIA nel mercato delle GPU discrete, classificandosi al secondo posto nel settore dei PC, e ha sviluppato le sue GPU della serie “Instinct” MI per l’accelerazione AI nei data center. I punti di forza di AMD includono la sua vasta esperienza nel design dei semiconduttori e i successi comprovati nel campo dell’HPC. Infatti, AMD domina una parte significativa del mercato delle CPU per server x86 e ha dimostrato le prestazioni delle sue GPU alimentando il primo supercomputer exascale al mondo (Frontier dell’Oak Ridge National Laboratory). MI300, l’ultima APU per data center di AMD lanciata nel 2023, presenta un design innovativo che integra CPU (con nome in codice Elburs) e chiplet GPU tramite stacking 3D ed è dotata di abbondante memoria HBM. La serie MI300, adottata in sistemi come il supercomputer El Capitan, dovrebbe offrire ottime prestazioni in alcuni carichi di lavoro HPC.
Dal punto di vista commerciale, tuttavia, la quota di mercato di AMD nel settore degli acceleratori AI è ancora modesta. Secondo Morgan Stanley, la quota di AMD nel consumo di wafer per chip AI scenderà dal 9% nel 2024 al 3% nel 2025, il che significa che, anche se AMD aumentasse la produzione in termini assoluti, la sua quota di mercato diminuirebbe in un mercato in rapida crescita e AMD non riuscirà a tenere il passo con la domanda crescente di chip NVIDIA. Uno dei principali svantaggi degli acceleratori Instinct di AMD è il suo ecosistema software. A differenza di CUDA di NVIDIA, AMD offre la piattaforma open source ROCm, che è spesso considerata meno matura in termini di facilità d’uso e ottimizzazione per gli sviluppatori. Di conseguenza, i provider cloud e le aziende hanno adottato gli acceleratori AMD con lentezza, spesso limitandosi a piccoli progetti pilota (ad esempio, Microsoft Azure ha offerto VM MI200, ma con adozione limitata). Inoltre, sebbene i design eterogenei innovativi come il MI300 abbiano un grande potenziale, essi devono superare le sfide relative al rendimento iniziale della produzione e ai costi prima di ottenere successo su larga scala. SemiAnalysis ha osservato che “tutti dicono che serve un’alternativa a NVIDIA, ma l’unica azienda tradizionale di silicio in grado di fornire realisticamente tale alternativa è AMD, che ha una comprovata esperienza nel consegnare GPU HPC in tempo,” aggiungendo che “la domanda chiave è se AMD sarà in grado di fornire il volume e il supporto software richiesti dal mercato.” Il periodo 2024–2025 sarà cruciale per AMD, che dovrà aumentare la produzione del MI300 e dimostrare sia le prestazioni che la compatibilità con l’ecosistema. Se AMD riuscirà a ottenere ordini significativi da grandi clienti cloud (come Oracle o Microsoft) o a migliorare la compatibilità software per competere su carichi di lavoro AI più ampi, c’è il potenziale per un aumento della quota di mercato. Tuttavia, l’opinione diffusa è che “NVIDIA è molto avanti e che AMD incontrerà difficoltà nel colmare il divario nel breve termine.” In definitiva, la strategia a lungo termine di AMD probabilmente consisterà nel sfruttare il suo ampio portafoglio di CPU (Zen), FPGA/Xilinx e GPU per offrire soluzioni personalizzate a clienti specifici o per competere sul fronte della convenienza economica rispetto a NVIDIA. Se alcune aziende riusciranno ad acquistare più acceleratori MI di AMD al prezzo di una singola NVIDIA H100, ciò potrebbe costituire un’alternativa interessante per i clienti attenti ai costi – a condizione che il divario prestazionale sia minimo e la portabilità del software sia semplice. Ciò sottolinea la necessità per AMD di investire ulteriormente nel software e di collaborare più strettamente con i propri clienti.
Intel: Sfide Ripetute e Battute d’Arresto, con un Nuovo Tentativo nel 2025
Intel ha incontrato inaspettate difficoltà nel campo degli acceleratori AI. L’azienda in passato ha affermato “non c’è un’era AI senza GPU”, ha acquisito startup di deep learning (come Nervana) tra il 2017 e il 2019 e ha annunciato piani per sviluppare proprie GPU basate sull’architettura Xe, ma alla fine non ha ottenuto risultati significativi. Nel 2022, Intel ha completato la sua prima GPU HPC, Ponte Vecchio (commercializzata come Intel Data Center GPU Max), che è stata fornita al Ministero dell’Energia degli Stati Uniti per il supercomputer Aurora, ma anche questo lancio è avvenuto con diversi anni di ritardo rispetto ai piani iniziali. Inoltre, il processore AI Gaudi di Habana Labs, acquisito da Intel, ha riscosso un’adozione molto limitata – solo AWS ha lanciato istanze Gaudi2 e le applicazioni sono rimaste molto ristrette. SemiAnalysis ha osservato che “Habana Gaudi 2 è praticamente inesistente fuori da AWS, e internamente Intel sembra unire efficacemente la linea di prodotti in Falcon Shores.” All’inizio del 2024, Intel ha presentato i piani per la sua prossima generazione di architettura ibrida, Falcon Shores, durante un evento per sviluppatori; inizialmente previsto come chip ibrido GPU+CPU, ora è programmato come prodotto esclusivamente GPU per il 2025. Ciò suggerisce un cambiamento nei piani per i chip AI indipendenti, come una possibile Habana Gaudi3.
In sintesi, sebbene Intel rimanga un attore importante nel settore delle CPU, essa continua a rimanere indietro nel campo dell’accelerazione AI in termini di tecnologia, software e fiducia del mercato rispetto a NVIDIA e AMD. Intel ha però promesso di lanciare nel 2025 una nuova GPU per data center, denominata Falcon Shores. Per avere successo, questo prodotto dovrà offrire prestazioni e un’efficienza energetica almeno comparabili all’H100, integrarsi perfettamente con le CPU x86 e essere supportato da un software robusto (ad esempio OneAPI). Le attuali aspettative degli investitori sono tuttavia basse. Morgan Stanley prevede che la quota di Intel nel consumo di wafer per chip AI nel 2025 sarà di circa l’1%, il che significa che il volume degli acceleratori AI di Intel sarà trascurabile rispetto al mercato totale. La strategia principale di Intel sembra spostarsi verso “supportare NVIDIA come foundry”, come già suggerito da Jensen Huang, il che indica che Intel probabilmente si concentrerà maggiormente sulla produzione dei chip NVIDIA piuttosto che competere nella vendita di GPU.
In conclusione, la strategia di Intel nel mercato degli acceleratori AI non ha ancora prodotto risultati evidenti, e il 2025 sembra essere il loro “ultimo tentativo”. Se Falcon Shores dovesse fallire o risultare non competitivo, Intel potrebbe concentrarsi sulle sue attività principali come le CPU e le FPGA (Altera), oppure avvicinarsi all’accelerazione AI attraverso modelli foundry o piattaforme. Nonostante il grande capitale e le risorse umane di Intel, è improbabile che essa rappresenti una minaccia diretta per NVIDIA nei prossimi 2–3 anni. Il sentiment di mercato suggerisce persino che “Intel si è praticamente ritirata dalla competizione AI.”
Google TPU: Alta Efficienza Interna ma Ecosistema Esterno Limitato
Il TPU (Tensor Processing Unit) di Google plasma il panorama competitivo per l’accelerazione AI in modo diverso rispetto a NVIDIA. Google ha progettato i propri chip AI per ottimizzare i carichi di lavoro nei suoi enormi data center – supportando servizi come la ricerca, la pubblicità, la traduzione e YouTube. Dallo sviluppo iniziato nel 2015 e dalla prima presentazione nel 2016, il TPU ha attraversato diverse versioni, con la versione 4 già commercializzata e disponibile per alcuni clienti tramite Google Cloud. Inoltre, secondo alcuni rapporti, sono in corso roadmap interne per il TPU versione 5 e 6.
La forza del TPU di Google risiede nella stretta integrazione con il suo stack software proprietario, che garantisce prestazioni eccellenti e una notevole efficienza in termini di costi per compiti AI specifici. Ad esempio, Google utilizza i TPU Pods (cluster di migliaia di TPU) per raggiungere una densità di calcolo elevata nell’addestramento di modelli linguistici massicci, e sostiene che ciò offra una superiorità in termini di costi rispetto alle GPU della stessa generazione di NVIDIA. SemiAnalysis ha osservato che “lo stack hardware/software maturo di Google conferisce loro un vantaggio strutturale in termini di prestazioni e costi totali di proprietà (TCO) per i loro carichi di lavoro AI interni.”
Tuttavia, una notevole limitazione del TPU è il suo ecosistema esterno ridotto. Google offre il TPU esclusivamente tramite i propri servizi cloud e non vende il chip esternamente. Inoltre, i dettagli relativi all’architettura e all’ambiente di programmazione del TPU non sono stati sufficientemente divulgati agli sviluppatori esterni, limitandone l’applicazione su larga scala. I grandi clienti richiedono generalmente documentazione esaustiva e test preliminari prima di adottare un nuovo chip, ma Google tende a rivelare le specifiche solo dopo un’ampia implementazione, rendendo difficile la collaborazione esterna. Molte delle funzionalità innovative del TPU (legate alla memoria e alle reti) sono inoltre tenute segrete per gli utenti esterni, impedendo agli sviluppatori di eseguire ottimizzazioni a basso livello o applicazioni personalizzate. In definitiva, sebbene il TPU di Google possa risultare efficace per le esigenze interne di Google, esso non è considerato una seria minaccia alla dominanza globale di NVIDIA. Le stime di Morgan Stanley indicano che la quota di mercato del TPU di Google scenderà dal 19% nel 2024 al 10% nel 2025, il che significa che, anche se Google aumentasse l’uso dei propri chip, questo non eguaglierà l’espansione rapida della quota di mercato di NVIDIA.
La strategia di Google non è quella di sostituire completamente NVIDIA, ma di ottimizzare alcuni carichi di lavoro con chip proprietari per ridurre i costi. In pratica, Google Cloud continua a offrire istanze GPU NVIDIA A100/H100, e anche i team di ricerca di Google usano le GPU quando necessario. Rapporti recenti indicano inoltre che Google ha acquistato migliaia di ulteriori unità H100 di NVIDIA. Pertanto, il TPU di Google probabilmente rimarrà un acceleratore specializzato per l’uso interno di Google, con una concorrenza diretta limitata rispetto all’ecosistema esterno di NVIDIA. Se Google perfezionerà ulteriormente il TPU per ottenere vantaggi estremi in termini di prezzo e prestazioni o lo renderà disponibile per ambienti cloud esterni, ciò potrebbe comunque portare a cambiamenti sul mercato. Secondo la strategia attuale, il TPU appare principalmente come uno strumento per rafforzare la competitività interna di Google.
Altri: Amazon AWS, Chip Proprietari di Microsoft, Meta, Startup e Cina
Esistono altri attori nel mercato competitivo. Amazon AWS ha sviluppato i propri chip AI per l’addestramento (Trainium) e per l’inferenza (Inferentia) e li offre come parte delle sue istanze EC2. Tuttavia, proprio come il TPU, il Trainium di AWS è disponibile esclusivamente nel cloud AWS e manca della versatilità di un chip a uso generale. Morgan Stanley prevede che la quota di AWS nel consumo di chip AI scenderà dal 10% nel 2024 al 7% nel 2025, il che suggerisce che, anche se AWS aumentasse la propria produzione, essa rimarrebbe marginale rispetto alla crescente domanda di GPU NVIDIA. Microsoft, che verrà trattato successivamente, sta sviluppando anche il proprio acceleratore AI chiamato Azure Maia, anche se si prevede che il suo impatto si manifesti solo parzialmente dopo il 2025.
Meta (Facebook) ha anch’essa lavorato su acceleratori per l’inferenza AI, come MTIA e un progetto per acceleratori di addestramento, ma a quanto pare ha cambiato direzione a seguito di problemi di design nel 2022. Attualmente, Meta è fortemente dipendente dalle GPU H100 di NVIDIA per l’addestramento AI su larga scala, il che comporta una forte dipendenza a breve termine. Tuttavia, è improbabile che Meta rinunci completamente alla sua ambizione di sviluppare chip propri orientati al risparmio sui costi a lungo termine.
Numerose startup nel settore dei semiconduttori AI sono emerse, ma la maggior parte non ha ancora raggiunto il livello necessario per sfidare NVIDIA a livello commerciale. Esempi come Cerebras (con il suo motore a scala wafer) e Graphcore (con la sua IPU) sono notevoli, ma Cerebras offre principalmente i propri servizi tramite il proprio cloud e applica prezzi elevati, limitandone l’accessibilità. Graphcore, nonostante investimenti da parte di SoftBank e altri, ha recentemente incontrato difficoltà. Altre aziende, come Tenstorrent (guidata da Jim Keller), stanno attirando l’attenzione, ma SemiAnalysis osserva che “sia l’hardware che il software necessitano ancora di ulteriore maturazione.” Alla fine, la maggior parte delle startup non è ancora in grado di sfidare l’ecosistema NVIDIA, e molte probabilmente rimarranno attori di nicchia o saranno acquisite da aziende più grandi.
Anche i concorrenti cinesi costituiscono una parte significativa del mercato. A causa delle restrizioni all’esportazione imposte dagli Stati Uniti, la Cina ha difficoltà ad importare GPU all’avanguardia come la A100/H100, spingendo aziende come Huawei (con la serie Ascend), Alibaba, Tencent, Biren e Cambricon ad intensificare i propri sforzi nello sviluppo di chip AI propri. Sebbene alcuni abbiano prodotto chip a 7nm, essi sono ancora lontani dall’offrire prestazioni al top e devono affrontare sfide legate all’utilizzo dei processi più recenti di TSMC. Nonostante una forte domanda interna, le limitazioni tecniche e produttive probabilmente impediranno alle aziende cinesi di sostituire completamente NVIDIA prima del 2025. Invece, NVIDIA è riuscita a mantenere una parte del suo mercato vendendo versioni downgrade della A100 (come la A800) in Cina. Se le sanzioni dovessero persistere nel lungo termine, le aziende cinesi locali potrebbero in seguito ridurre il divario, ma a livello globale è improbabile che i chip cinesi minaccino la posizione internazionale di NVIDIA.
Riepilogo delle Prospettive oltre il 2025
Dopo il 2025 si prevede che il mercato degli acceleratori GPU/AI continuerà a sperimentare una domanda esplosiva. Con grandi modelli linguistici, AI generativa, servizi AI basati sul cloud ed edge AI, tutti ancora nelle fasi iniziali di adozione, IDC e altri prevedono una crescita annuale del mercato dei semiconduttori AI del 20–30%. In un mercato simile, ci si aspetta che NVIDIA – grazie alla sua competenza tecnologica, al suo ampio portafoglio prodotti e al suo robusto ecosistema – mantenga una posizione dominante nel prossimo futuro. Sebbene AMD possieda un notevole potenziale tecnologico, probabilmente ci vorrà del tempo prima che possa aumentare significativamente la sua quota di mercato, mentre Intel sembra rimanere fuori dalla competizione. I chip proprietari dei provider cloud sono principalmente destinati all’autosufficienza e coesistono spesso con i prodotti di NVIDIA. Ad esempio, Microsoft Azure adotta una strategia duale utilizzando i propri chip Maia per alcuni carichi di lavoro, pur collaborando con NVIDIA per il superchip GB200 e continuando a commercializzare le VM H100 come prodotto principale. Questa tendenza vale per la maggior parte dei provider cloud, permettendo a NVIDIA di mantenere margini elevati e la dominanza del mercato, finché riesce ad espandere la propria catena di approvvigionamento.
Tuttavia, le sfide poste dai concorrenti non devono essere sottovalutate. In particolare, l’acquisizione di Xilinx ha fornito ad AMD una tecnologia FPGA/adattiva che, combinata con la sua esperienza consolidata in CPU e GPU, potrebbe offrirle opportunità in nicchie di mercato in cui NVIDIA non è presente (ad esempio, soluzioni integrate FPGA+GPU per le reti 5G per le compagnie di telecomunicazioni). Inoltre, man mano che gli stack software open source continueranno a evolversi e la dipendenza da CUDA diminuirà, sarà più facile eseguire carichi di lavoro AI su chip AMD o altri. Se grandi clienti come Google e Meta adotteranno sempre più i propri chip, le entrate principali di NVIDIA potrebbero subire un lieve calo. Tenendo conto di questi fattori, il leadership tecnologica, l’efficienza esecutiva e la fiducia del mercato nei confronti di NVIDIA indicano che il suo “monopolio” probabilmente persisterà per alcuni anni anche dopo il 2025. La risposta dei concorrenti consisterà probabilmente nel concentrarsi su nicchie di mercato o nel collaborare parzialmente con NVIDIA, e a meno che non si verifichi un cambiamento dirompente, l’espressione “NVIDIA ha tutto” rimarrà probabilmente valida nel settore delle GPU.
Impatto del GTC 2025 su Microsoft, OpenAI e Tesla
Gli annunci al GTC 2025 di NVIDIA non avranno impatto solo su NVIDIA, ma avranno conseguenze di vasta portata anche per le grandi aziende tecnologiche nel settore AI. In particolare, Microsoft, OpenAI e Tesla – attori leader nell’AI con strette relazioni di collaborazione o concorrenza con NVIDIA – potrebbero subire cambiamenti nelle dinamiche di partnership e competizione dopo il GTC 2025. Analizziamo ciascun caso in dettaglio.
Collaborazione e Concorrenza con Microsoft
Microsoft è sempre stata un partner particolare per NVIDIA. La piattaforma cloud Azure ha installato in grandi quantità le GPU H100/A100 di NVIDIA per gestire i carichi di lavoro AI di innumerevoli clienti, inclusa OpenAI, e le due aziende vantano una collaborazione di lunga data nell’ambito dell’infrastruttura AI. Al GTC 2024, NVIDIA e Microsoft hanno annunciato congiuntamente di essere stati i primi ad adottare il superchip di nuova generazione Grace-Blackwell (GB200) su Azure, e Azure ha poi presentato una serie di macchine virtuali su larga scala alimentate dalle ultime GPU di NVIDIA (inclusa la H100 v5). Inoltre, Microsoft integra le funzionalità AI basate su GPU RTX di NVIDIA (come la coprocessazione accelerata dall’AI) nei suoi prodotti software, quali Windows e Office. In questo contesto, gli annunci al GTC 2025 rappresentano un’importante opportunità per Microsoft di adottare nuove tecnologie. Ad esempio, se verrà presentato un sistema HGX basato su Blackwell, Microsoft Azure potrebbe essere tra i primi ad adottarlo, rafforzando ulteriormente la propria infrastruttura AI. Dal punto di vista di Microsoft, una stretta collaborazione con NVIDIA offre un vantaggio competitivo rispetto a provider cloud rivali come AWS e Google.
D’altra parte, Microsoft non è solo uno dei maggiori clienti di NVIDIA, ma anche un potenziale concorrente. Microsoft ha sviluppato il proprio chip AI (l’acceleratore Azure “Maia”) e ha presentato ufficialmente l’Azure Maia 100 AI Accelerator insieme a una CPU ARM Cobalt durante l’evento Ignite 2023. Questo progetto è stato concepito per elaborare determinati carichi di lavoro AI nei data center di Azure con chip dedicati ed è stato sviluppato in collaborazione con OpenAI. Sam Altman, CEO di OpenAI, ha dichiarato: “Abbiamo progettato insieme l’infrastruttura Azure con Microsoft, e quando il chip Maia è stato condiviso, lo abbiamo ottimizzato insieme”, suggerendo che Maia potrebbe aprire la strada a un addestramento più efficiente in termini di costi per i modelli di grandi dimensioni. Ciò indica che l’alleanza tra Microsoft e OpenAI potrebbe, a lungo termine, ridurre la loro dipendenza da NVIDIA e consentire un miglior controllo dei costi. Alcuni rapporti della fine del 2024 hanno persino ipotizzato che “Microsoft stia sviluppando il proprio chip B200 (in risposta al B100 di NVIDIA) e che esista una sorta di stallo tra NVIDIA e Microsoft.” Durante il GTC 2025, se NVIDIA evidenzierà i notevoli miglioramenti prestazionali della serie Blackwell, Microsoft potrebbe adeguare la propria strategia di sviluppo confrontandola con gli obiettivi del progetto Maia. Se si dovesse scoprire che Blackwell di NVIDIA è molto più potente del previsto, Microsoft potrebbe posticipare o ridimensionare il lancio del proprio chip; altrimenti, se il chip si dimostra competitivo, Microsoft potrebbe aumentare l’adozione di Maia per sostituire parzialmente gli acquisti da NVIDIA.
A breve termine, poiché la collaborazione tra Microsoft e NVIDIA è reciprocamente vantaggiosa, è probabile che gli annunci al GTC 2025 rafforzeranno ulteriormente la loro partnership. Un recente comunicato stampa di AIwire ha mostrato che Microsoft e NVIDIA hanno dimostrato insieme l’ottimizzazione del superchip GB200 di nuova generazione su Azure, con la strategia di offrire la tecnologia più recente di NVIDIA ai clienti Azure il prima possibile. Ciò dimostra che Microsoft continuerà a collaborare strettamente con NVIDIA per mantenere la propria posizione di leadership nell’infrastruttura AI fino a quando i propri chip non saranno pronti. Inoltre, è previsto che Microsoft continuerà a collaborare all’interno dell’ecosistema con NVIDIA – ad esempio partecipando al vasto partenariato AI degli Stati Uniti (PGIAI) guidato da NVIDIA – per coordinare iniziative comuni in materia di questioni sociali legate all’AI.
In sintesi, Microsoft sarà sia influenzata da sia influirà sull’esito del GTC 2025. Dal punto di vista della collaborazione, probabilmente utilizzerà le nuove tecnologie di NVIDIA per rafforzare i servizi AI di Azure e ottenere un vantaggio competitivo rispetto ai provider cloud come AWS e Google. Dal punto di vista della concorrenza, sebbene la propria strategia sui chip possa essere rivista in seguito agli annunci di NVIDIA, si prevede che Microsoft rimarrà fortemente dipendente dai chip ad alte prestazioni di NVIDIA almeno fino al 2025–2026. Poiché Microsoft è uno dei maggiori clienti di NVIDIA, NVIDIA adotterà misure per soddisfare le esigenze di Microsoft (ad esempio, riduzioni di prezzo o aumenti nelle forniture) per mantenere la relazione.
OpenAI: Cliente Chiave e Potenziale Concorrente?
OpenAI, forza trainante dietro il boom dell’AI generativa illustrato da ChatGPT nel 2023, è uno dei maggiori utilizzatori delle GPU di NVIDIA. Decine di migliaia di GPU A100 di NVIDIA sono state utilizzate per addestrare modelli come GPT-4, e, secondo alcuni rapporti, OpenAI utilizza l’infrastruttura H100 su Microsoft Azure per sviluppare la sua prossima generazione di modelli. Per OpenAI, gli annunci al GTC 2025 sono cruciali dal punto di vista del cliente. Prestazioni migliorate, tecnologie in grado di ridurre i costi nell’addestramento e nell’inferenza AI, e altri miglioramenti legati alle nuove GPU basate su Blackwell potrebbero aiutare OpenAI ad addestrare modelli ancora più potenti (come GPT-5) più rapidamente o a ridurre drasticamente i costi operativi dei loro servizi API. Se, ad esempio, Blackwell fornisse un miglioramento di 30 volte nell’efficienza di inferenza, ciò ridurrebbe drasticamente i costi operativi dell’API ChatGPT di OpenAI. Pertanto, OpenAI tiene la roadmap di NVIDIA sotto stretto controllo, e assicurarsi rapidamente i nuovi prodotti sarà una priorità assoluta.
La relazione tra OpenAI e NVIDIA è fondamentalmente collaborativa. Non esiste una concorrenza diretta, poiché OpenAI si concentra sullo sviluppo di modelli e servizi AI, mentre NVIDIA fornisce l’infrastruttura AI. Tuttavia, esiste una certa pressione indiretta affinché OpenAI riduca la propria dipendenza da NVIDIA – ad esempio, attraverso la collaborazione nello sviluppo del chip Maia con Microsoft, come già accennato. Alla fine del 2024, OpenAI ha anche annunciato il progetto Stargate, che, con il supporto di investimenti da SoftBank e Oracle, mira a costruire una massiccia infrastruttura di supercomputer AI negli Stati Uniti. Nella fase iniziale, l’implementazione di un gran numero di GPU NVIDIA è inclusa, ma si ipotizza che, a lungo termine, OpenAI potrebbe sviluppare il proprio stack hardware. Secondo alcuni rapporti di The Next Platform, “OpenAI potrebbe, infine, costruire il proprio hardware, indipendentemente da Microsoft e NVIDIA,” e circolano voci secondo cui OpenAI starebbe esplorando la possibilità di un acceleratore AI proprio. Anche se un tale chip venisse sviluppato, è probabile che le sue prestazioni e stabilità inizialmente restino inferiori rispetto alle offerte di NVIDIA, il che significa che OpenAI dovrà continuare a fare affidamento sulla piattaforma NVIDIA nel prossimo futuro.
Pertanto, la roadmap prestazionale presentata al GTC 2025 potrà fungere da metro di misura per determinare quanto aggressivamente OpenAI debba perseguire la propria strategia hardware. Se NVIDIA dovesse mostrare miglioramenti innovativi significativamente superiori alle aspettative (ad esempio, un aumento di cinque volte nella velocità di addestramento), OpenAI potrebbe decidere di rimanere competitiva sulla sua attuale piattaforma NVIDIA e posticipare lo sviluppo del proprio chip. Se, invece, i miglioramenti fossero modesti o se si verificassero limitazioni nella fornitura, OpenAI potrebbe considerare di rafforzare la propria strategia indipendente in collaborazione con Microsoft. Tuttavia, NVIDIA ha costantemente superato le aspettative di OpenAI nello sviluppo della sua piattaforma, e OpenAI ha da tempo riconosciuto che “NVIDIA possiede la piattaforma AI più perfetta al mondo.” È quindi molto probabile che la reciproca dipendenza tra OpenAI e NVIDIA continuerà ben oltre il GTC 2025, con NVIDIA come fornitore delle GPU più avanzate che consentiranno ad OpenAI di costruire servizi AI rivoluzionari – un circolo virtuoso che alimenterà ulteriormente la domanda di GPU.
Tesla: Dinamiche Concorrenti senza Collaborazione Diretta, Effetti Indiretti
La relazione tra Tesla e NVIDIA si è evoluta da un rapporto cliente-fornitore a una situazione di concorrenza. In passato, Tesla utilizzava le soluzioni Drive PX2 di NVIDIA per i suoi sistemi di guida autonoma (2016–2017), ma nel 2019 ha sviluppato il proprio chip FSD (FSD Computer) per sostituire le soluzioni NVIDIA. Inoltre, mentre Tesla in passato gestiva un supercomputer composto da migliaia di GPU NVIDIA per l’addestramento dei sistemi di guida autonoma, recentemente ha iniziato a utilizzare il proprio supercomputer AI, Dojo, messo in funzione nel 2023. In questo contesto, è improbabile che gli annunci al GTC 2025 portino a una collaborazione diretta tra Tesla e NVIDIA; tuttavia, i progressi tecnologici di NVIDIA potrebbero influenzare indirettamente la strategia e il posizionamento di Tesla sul mercato.
Per quanto riguarda la tecnologia di guida autonoma, l’introduzione di DRIVE Thor di NVIDIA e la sua adozione sempre più ampia nel settore automobilistico forniscono agli altri OEM un potente strumento competitivo contro Tesla. Mentre Tesla ha sviluppato per lungo tempo la propria tecnologia di guida autonoma con hardware e software integrati, molti produttori di automobili ora si affidano alla piattaforma NVIDIA per colmare il divario. Ad esempio, quando aziende come Mercedes e Toyota collaborano con NVIDIA per sviluppare sistemi altamente autonomi, è probabile che anche altri produttori possano implementare funzionalità autonome comparabili a quelle di Tesla. Nuovi marchi di auto elettriche, come Zeekr, hanno persino annunciato l’intenzione di equipaggiare i loro veicoli con sistemi basati su Thor, il che li rende potenziali concorrenti di Tesla sul mercato cinese. L’adozione diffusa dell’ecosistema NVIDIA Drive aumenta la pressione competitiva su Tesla. Di conseguenza, Tesla dovrà continuare a ottimizzare il proprio software FSD e migliorare ulteriormente le prestazioni del suo computer AI per veicoli (la prossima generazione del FSD Computer). Se NVIDIA lancerà una nuova generazione di chip per l’automotive che supererà di gran lunga Thor o che diventerà uno standard industriale, Tesla potrebbe trovarsi di fronte a una scelta strategica: proseguire con la propria strategia indipendente o considerare l’integrazione della tecnologia NVIDIA in alcuni segmenti. Anche se al momento non ci sono segni che Tesla torni ad adottare NVIDIA, potrebbe sorgere la necessità – ad esempio, nella produzione di robottaxi o di robot Optimus – dove una certa collaborazione non può essere esclusa.
Esistono inoltre effetti indiretti nel campo dei supercomputer AI. Dojo, il supercomputer AI sviluppato internamente da Tesla per l’addestramento dei suoi sistemi di guida autonoma, punta a un incremento dell’efficienza da 4 a 6 volte rispetto all’H100 in determinati compiti. Se i nuovi prodotti basati su Blackwell di NVIDIA riuscissero a eguagliare o superare le prestazioni di Dojo, il vantaggio competitivo della soluzione interna di Tesla potrebbe ridursi. Se Tesla avesse inizialmente ritenuto più conveniente utilizzare il proprio supercomputer invece delle GPU, un aumento dell’efficienza delle GPU potrebbe indurla a preferire nuovamente le GPU NVIDIA. Soprattutto perché Dojo non ha ancora dimostrato pienamente la sua scalabilità e versatilità al di fuori dell’uso interno, mentre le GPU NVIDIA offrono una elevata versatilità per diverse applicazioni, Tesla potrebbe aumentare gli acquisti di GPU NVIDIA se esprimesse incertezza nell’espansione di Dojo. È degno di nota che già nel 2023 Elon Musk ha cercato di assicurarsi ulteriori GPU NVIDIA per la sua startup AI xAI, sottolineando l’importanza pratica della tecnologia NVIDIA.
Anche il settore della robotica risulta interessante. Tesla sta sviluppando il suo robot umanoide, Optimus, definendolo “il prodotto più importante” dell’azienda. NVIDIA si concentra anch’essa su questo ambito e prevede di organizzare un panel dedicato ai robot umanoidi durante il GTC 2025. Con il progresso delle piattaforme Isaac Sim e Cosmos di NVIDIA, diverse aziende avranno l’opportunità di creare robot umanoidi, aprendo la strada a una competizione tra Optimus di Tesla e robot sviluppati da startup come Figure AI o Apptronik che utilizzano la tecnologia NVIDIA. Ciò potrebbe aumentare ulteriormente la pressione competitiva su Tesla in nuovi settori.
In sintesi, il GTC 2025 rappresenterà una sfida indiretta per Tesla. La capacità di NVIDIA di fornire strumenti potenti nei settori automotive, della robotica e dell’infrastruttura AI potrebbe consentire ai concorrenti di colmare il divario con Tesla. Sebbene Tesla abbia tradizionalmente seguito una strategia indipendente, il rapido progresso dei concorrenti – rafforzato dal supporto di NVIDIA – potrebbe spingere Tesla a velocizzare lo sviluppo dei propri chip e software o, se necessario, a collaborare parzialmente con NVIDIA. Nonostante la forza di Tesla in termini di integrazione verticale e raccolta dati, i continui progressi di NVIDIA potrebbero, nel tempo, rimodellare il panorama competitivo del settore automobilistico. Se, dopo il GTC 2025, i produttori di automobili inizieranno a credere di poter realizzare funzionalità comparabili al sistema FSD di Tesla utilizzando i chip NVIDIA, ciò potrebbe frenare l’attuale dominio di Tesla. Infine, anche se Tesla e NVIDIA non collaborano direttamente, le loro strategie si influenzeranno continuamente reciprocamente, e il GTC 2025 probabilmente confermerà questa dinamica.
Analisi degli Analisti di Wall Street e Target Price per NVIDIA
Come vedono gli analisti di Wall Street NVIDIA, l’azienda che durante il boom dell’AI ha raggiunto altezze astronomiche? Con il GTC 2025 all’orizzonte, le grandi banche d’investimento sono generalmente positive riguardo alla leadership tecnologica e alle prospettive di guadagno di NVIDIA, pur avvertendo che il forte rialzo del titolo richiede un approccio strategico. Una sintesi di vari rapporti analitici descrive NVIDIA come “la scelta numero uno per l’era dell’AI”, con target price che indicano un potenziale rialzo a doppia cifra rispetto ai livelli all’inizio del 2025.
- Wedbush Securities: Wedbush mantiene la sua posizione che NVIDIA è il titolo AI di punta per il 2025. Hanno dichiarato: “La rivoluzione AI è la più grande trasformazione tecnologica degli ultimi 40 anni, e le sue origini risalgono a Jensen Huang”, prevedendo che le spese in capitale legate all’AI supereranno i 2 bilioni di dollari nei prossimi tre anni. Questo sottolinea che NVIDIA è destinata a essere il più grande beneficiario di questo ciclo di investimenti AI. Pur non indicando un target price specifico, Wedbush continua a considerare NVIDIA come la scelta top per l’AI nel 2025.
- Morgan Stanley: Morgan Stanley ha assegnato a NVIDIA un rating “Overweight” con un target price di 166 dollari, corrispondente a un potenziale rialzo del 21% rispetto ai livelli all’inizio del 2025. Hanno dichiarato che “nella seconda metà del 2025, solo il successo di Blackwell dominerà il dibattito di mercato”, suggerendo che, nonostante possibili problemi transitori a breve termine, la domanda di base rimane estremamente forte. In altre parole, anche se dovessero verificarsi aggiustamenti temporanei, rischi legati alla Cina o questioni di valutazione, le prestazioni della serie Blackwell nella seconda metà del 2025 saranno tali da dissipare ogni preoccupazione. Morgan Stanley ha inoltre ricordato come il titolo di NVIDIA abbia registrato forti rialzi dopo che Jensen Huang ha descritto la domanda per Blackwell come “folle.”
- Citi: Citi prevede che la keynote di Jensen Huang al CES 2025 fungerà da catalizzatore a breve termine per il titolo, assegnando un rating di acquisto con un target price di 175 dollari – implicando un potenziale rialzo del 27% rispetto ai livelli attuali. L’analista Atif Malik di Citi ha dichiarato: “Con aspettative potenziate per le vendite di Blackwell durante l’evento CES di gennaio, il titolo di NVIDIA è sul punto di intraprendere un rally a doppia cifra,” sottolineando che le discussioni con il management durante le sessioni Q&A subito dopo il CES evidenzieranno probabilmente una maggiore domanda per il nuovo chip e un aumento nei settori enterprise AI/robotica, con un impatto positivo sul titolo. Citi ha già alzato il target price basandosi su questi segnali positivi, e le prestazioni azionarie di NVIDIA al CES 2025 hanno confermato tali aspettative.
- Bank of America (BofA): BofA mantiene il rating di acquisto per NVIDIA con un target price di 190 dollari, corrispondente a un potenziale rialzo del 39% rispetto ai livelli attuali – uno dei target price più elevati tra le grandi banche d’investimento. Gli analisti di BofA hanno osservato che “la domanda per la GPU Hopper di NVIDIA è robusta, e la domanda per Blackwell dovrebbe superare la capacità produttiva di NVIDIA per diversi trimestri.” Hanno tuttavia anche sottolineato che negli ultimi trimestri le aspettative degli investitori sono state superiori alle sorprese effettive, portando a correzioni dopo la pubblicazione dei risultati. Nonostante ciò, hanno affermato che “finché i fondamentali rimarranno solidi, vi sono ampie ragioni per essere ottimisti riguardo la crescita a lungo termine di NVIDIA.” Pur riconoscendo una certa volatilità a breve termine, BofA è convinto che NVIDIA sarà alla fine il più grande beneficiario del boom AI, raccomandando di aumentare l’esposizione al titolo nei portafogli degli investitori.
Inoltre, la maggior parte degli analisti di Goldman Sachs, JPMorgan, BofA e RBC mantiene un rating di acquisto per NVIDIA. Sebbene alcune voci più conservative, come UBS, abbiano avvertito di possibili correzioni a breve termine con un rating neutro, la maggioranza si concentra sulla capacità dirompente dei fondamentali di NVIDIA, rendendo gli analisti restii a ridurre i loro rating. Secondo i dati aggregati da TipRanks, il target price medio per il 2025 si attesta intorno a 178 dollari – il che corrisponde a un potenziale rialzo di circa il 40% rispetto ai livelli di gennaio. Anche se alcuni avvertono che, dopo una quasi triplicazione nel 2024, il titolo potrebbe aver bisogno di “prendersi una pausa”, le solide prospettive di crescita degli utili di NVIDIA e l’assenza di un concorrente chiaro fanno sì che gli analisti non siano disposti a rivedere al ribasso le loro valutazioni. Alcuni esperti tecnologici hanno persino proiettato che la capitalizzazione di mercato di NVIDIA potrebbe raggiungere i 10 bilioni di dollari nel 2030 (più di tre volte il valore attuale), basandosi sullo scenario in cui NVIDIA genererà enormi ricavi non solo dai chip AI, ma anche da software e servizi.
Nel frattempo, a seguito dell’ultima previsione trimestrale per il Q1 2025 (novembre–gennaio 2024), Wall Street è diventata temporaneamente più cauta. Secondo Reuters, sebbene le previsioni trimestrali di NVIDIA per l’inizio del 2025 abbiano superato le aspettative del mercato, un rallentamento rispetto al trimestre precedente ha sollevato preoccupazioni sul fatto che “il rally AI di due anni potrebbe stabilizzarsi.” Ciò ha portato a un calo dell’8% del titolo e a una perdita di 500 miliardi di dollari nella capitalizzazione di mercato, con alcune voci che hanno espresso dubbi sulla sopravvalutazione dei grandi titoli tecnologici “Magnificent 7”. Tuttavia, queste reazioni sono state principalmente attribuite alla presa di profitti a breve termine e a preoccupazioni macroeconomiche, e non hanno influito significativamente sulla visione a lungo termine degli analisti. Al contrario, alcuni vedono queste correzioni come opportunità di acquisto interessanti – Wedbush, ad esempio, ha affermato che “anche se potrebbero verificarsi momenti di tensione nel 2025, storicamente questi sono stati momenti ideali per accumulare titoli tecnologici di base.” In definitiva, nonostante la volatilità a breve termine, la tendenza a lungo termine, trainata dal megatrend AI, rimane solida, e gli analisti consigliano di mantenere NVIDIA.
Strategie di Investimento a Lungo Termine: Mantenere NVIDIA vs. Vendere Immediatamente dopo gli Eventi
Infine, analizziamo come gli investitori a lungo termine potrebbero sfruttare eventi come il GTC 2025. La domanda centrale è: è meglio mantenere le azioni NVIDIA a lungo termine o è più vantaggioso realizzare profitti vendendo subito dopo un grande evento? La risposta può variare da investitore a investitore, ma sulla base dell’analisi e dell’attuale situazione di mercato, ecco alcune considerazioni.
Vantaggi del Mantenimento a Lungo Termine: Partecipare a una Storia di Crescita Monumentale
La ragione principale per cui conviene mantenere NVIDIA a lungo termine è che i fondamentali dell’azienda sono ancora nelle prime fasi di crescita. Sebbene il boom dell’AI abbia generato enormi profitti nel 2023, l’adozione dell’AI è solo all’inizio. Come già accennato, ci si aspetta che l’adozione dell’AI in tutti i settori aumenti nei prossimi anni, con una domanda costante e in eccesso di chip AI, la componente essenziale per l’AI. NVIDIA è al centro di questa enorme tendenza di crescita strutturale. Possedendo azioni di un’azienda del genere nel lungo periodo, gli investitori possono beneficiare dell’effetto dell’interesse composto. Storicamente, coloro che hanno mantenuto NVIDIA per oltre un decennio hanno ottenuto rendimenti molteplici rispetto al loro investimento iniziale, nonostante occasionali correzioni dopo gli eventi, concludendosi in una tendenza ascendente a lungo termine.
Il vantaggio competitivo di NVIDIA non deriva dalla fortuna, ma dall’innovazione costante e dall’espansione. L’azienda è pronta a cogliere nuove opportunità di crescita in settori come la guida autonoma, i servizi cloud AI, il metaverso, la sanità e la robotica. Questa crescita multi-settoriale è estremamente attraente per gli investitori a lungo termine. Anche quando un ciclo di prodotto si conclude, emergono nuovi mercati e i ricavi ricorrenti da software e piattaforme (come le licenze CUDA o un marketplace di modelli AI) aumentano progressivamente. Come dimostra la menzione di un TAM di 1 bilione di dollari da parte di NVIDIA, esiste un mercato potenziale che è molteplici volte superiore all’attuale fatturato annuo dell’azienda (circa 40 miliardi di dollari). Sebbene ci voglia tempo per realizzare questo potenziale, gli investitori a lungo termine possono beneficiare dell’aumento di valore che accompagna la crescita dell’azienda.
Inoltre, il management di NVIDIA – in particolare Jensen Huang – è noto per essere particolarmente attento agli azionisti. Huang è famoso per la sua visione a lungo termine e ha già effettuato splits azionari (uno split 4:1 nel 2021 e uno 10:1 nel 2024) per aumentare la liquidità e incentivare la partecipazione degli investitori. La ripresa del titolo dopo lo split 10:1 nel 2024 testimonia la forte traiettoria di crescita dell’azienda. In questo contesto, gli investitori a lungo termine potrebbero trarre maggior vantaggio adottando una mentalità “compra e tieni per sempre” invece di farsi distrarre dalle oscillazioni a breve termine.
La Tentazione di Vendere Immediatamente dopo un Evento: Raffreddare un’Iperscoppia a Breve Termine
Che dire della strategia di vendere subito dopo un evento per realizzare profitti a breve termine? Questa metodologia sfrutta il fenomeno “sell the news” già menzionato. Ci sono stati casi in cui il titolo di NVIDIA ha raggiunto un picco subito dopo grandi eventi come il GTC o il CES, per poi correggersi, portando alcuni investitori a vendere proprio prima dell’evento per poi reinvestire durante il calo. Ad esempio, si sarebbe potuto vendere prima del GTC 2024 di marzo e poi riacquistare dopo un calo immediato del 2%. Sebbene questa strategia possa sembrare ideale in teoria, in pratica è estremamente difficile cronometrarla con precisione a causa dell’imprevedibilità degli eventi e delle condizioni generali di mercato.
Se un investitore ritiene che l’attuale valutazione di NVIDIA sia troppo alta, potrebbe essere vantaggioso realizzare profitti durante il rally guidato dall’evento. All’inizio del 2025, il rapporto P/E prospettico di NVIDIA si aggirava attorno a 40–50, molto superiore alla media di mercato, quindi se tale alta valutazione viene percepita come un peso, una riduzione della posizione intorno al periodo del GTC 2025 potrebbe essere giustificata. Specialmente se gli annunci non dovessero soddisfare le aspettative o se le notizie positive fossero già completamente scontate, ci si può aspettare una correzione a breve termine.
Anche gli investitori a lungo termine possono prendere in considerazione una leggera ribilanciatura del portafoglio. Se la posizione in NVIDIA è cresciuta troppo a seguito del rally, potrebbe essere saggio ridurre parzialmente l’esposizione dopo l’evento per ripristinare l’equilibrio. Anche se si ha fiducia in NVIDIA, rischi imprevisti (come un improvviso calo della domanda o problemi geopolitici) possono sempre presentarsi, rendendo prudente seguire il principio della diversificazione. Eventi come il GTC sono punti culminanti in un ciclo di prodotto e possono rappresentare momenti logici per ribilanciare il portafoglio.
Tuttavia, abbandonare completamente il mercato per poi reinvestire in seguito è rischioso. NVIDIA è nota per la sua volatilità e, in alcuni casi, il titolo può continuare a salire dopo un evento. Se si verificasse una serie di notizie positive consecutive (come al CES 2024), un investitore che avesse venduto potrebbe essere costretto a riacquistare a un prezzo più alto. Il trading frequente in un titolo fondamentalmente solido con una tendenza ascendente a lungo termine può effettivamente erodere i rendimenti. Come diceva Warren Buffett: “Se è una buona azienda, tienila per sempre.” Se sei convinto delle prospettive a lungo termine di NVIDIA, probabilmente è meglio non farsi distrarre dagli eventi a breve termine.
Considerazioni Complete e Direzione Futura
In definitiva, la decisione di mantenere le azioni NVIDIA nel lungo periodo o di vendere almeno una parte della posizione dopo un grande evento dipende dai tuoi obiettivi d’investimento e dalla tua tolleranza al rischio. Se il tuo obiettivo è realizzare profitti massimi a breve termine, potresti considerare di operare intorno alla volatilità che il GTC 2025 comporterà. Ma se il tuo obiettivo è ottenere guadagni significativi tra 5 o 10 anni, una correzione a breve termine del 5–10% non dovrebbe impedirti di mantenere le azioni.
Molti esperti consigliano: “Non valutare il titolo NVIDIA solo da una prospettiva a breve termine.” Il paradigma dell’AI è solo all’inizio e la capacità di generare ricavi di NVIDIA sta appena emergendo. Con possibili flussi di reddito provenienti da abbonamenti software o servizi cloud che integrano le vendite hardware, vi è spazio per un miglioramento dei margini e dei multipli. Ad esempio, i recenti annunci di NVIDIA riguardanti un negozio di modelli AI (NGC) e iniziative Omniverse basate sul cloud indicano un orientamento verso il software as a service, che potrebbe portare a una rivalutazione del titolo se queste iniziative avranno successo.
D’altra parte, un rischio potenziale è che il ciclo d’investimento nell’AI rallenti. Se gli enormi ordini osservati nel 2024–2025 raggiungessero il loro picco e la crescita si stabilizzasse a partire dal 2026, il titolo di NVIDIA potrebbe entrare in una fase di correzione o oscillare all’interno di un intervallo. Esiste un precedente storico quando il boom del mining di criptovalute crollò tra il 2018 e il 2019, causando un calo del 50% del titolo NVIDIA. Sebbene l’attuale boom AI non sia una moda passeggera, il modello di crescita esplosiva seguito da una correzione, per poi riprendere la tendenza ascendente, potrebbe ripetersi. In definitiva, la decisione di vendere dopo un evento dipenderà dalla sostenibilità percepita del ciclo di crescita dell’AI. Poiché la maggior parte degli esperti considera la domanda per l’AI una megatendenza che durerà per anni, uscire troppo presto potrebbe non essere saggio.
In sintesi: per gli investitori a lungo termine conviene mantenere NVIDIA come componente centrale del portafoglio, pur considerando un leggero aggiustamento della posizione durante periodi di surriscaldamento. Eventi come il GTC 2025 offrono l’opportunità di valutare la roadmap futura di NVIDIA, piuttosto che essere eventi negativi che compromettono la tua strategia d’investimento. Se gli annunci saranno forti, rafforzeranno ulteriormente la fiducia nella crescita a lungo termine dell’azienda, e non c’è motivo di ridurre drasticamente la posizione basandosi solo sulle reazioni a breve termine del mercato. Tuttavia, se il titolo dovesse salire eccessivamente per alcuni giorni (ad esempio, con un aumento del 20%), potrebbe essere saggio prendere alcuni profitti e poi reinvestire durante una successiva flessione. Tali operazioni non dovrebbero compromettere la tua posizione fondamentale a lungo termine in questa eccellente azienda. Ricorda il motto costante di Jensen Huang: “Non possiamo vedere tutto, ma continueremo a innovare con tutta la nostra forza,” che nel tempo ha ripagato gli investitori.
In conclusione: il GTC 2025 di NVIDIA è destinato a trasformare nuovamente l’industria AI con annunci tecnologici rivoluzionari. Sebbene le keynote precedenti abbiano causato oscillazioni a breve termine nel titolo, il valore a lungo termine è costantemente cresciuto. Le prospettive per il mercato GPU indicano che la dominanza di NVIDIA probabilmente continuerà, e nei rapporti di collaborazione e concorrenza con i partner chiave NVIDIA è ben posizionata. Gli analisti di Wall Street sono molto fiduciosi nelle prospettive di crescita futura di NVIDIA e segnalano ulteriori potenzialità rialziste con i loro target price. Tutto ciò indica che NVIDIA continua a essere un investimento attraente per gli investitori a lungo termine, e che una visione a lungo termine è preferibile rispetto a farsi influenzare dagli eventi a breve termine. Data la volatilità intrinseca del titolo, è comunque prudente rimanere flessibili e seguire i propri principi di gestione del rischio. Non esiste una risposta universale a “Quando vendere NVIDIA?”, ma le tendenze storiche suggeriscono che “mantenere le azioni il più a lungo possibile” è stata la strategia più redditizia.
Il futuro dell’AGI e l’analisi delle aziende promettenti dai chip NVIDIA a XAI Grok 3
- NVIDIA GTC 2025
- Jensen Huang Keynote
- Architettura Blackwell (Blackwell GPU)
- Acceleratori per Data Center AI
- Tecnologia di Guida Autonoma (DRIVE Thor)
- Cosmos Physical AI
- Volatilità Azionaria di NVIDIA
- Target Price e Prospettive degli Analisti
- AMD MI300 vs. NVIDIA
- Intel Habana Gaudi / Falcon Shores
- Strategia Google TPU
- Microsoft Azure Maia
- Strategia OpenAI (Progetto Stargate)
- Tesla Dojo Supercomputer
- Investimenti a Lungo Termine vs. Trading a Breve Termine