
Resumen de NVIDIA GTC 2025: desde la Keynote de Jensen Huang hasta las Estrategias de Inversión en IA
La conferencia anual de tecnología GPU (GTC) de NVIDIA para el 2025 se acerca rápidamente. Cada año, durante la keynote del GTC, el CEO Jensen Huang presenta tecnologías revolucionarias y visiones que transforman la industria. Para el GTC 2025 se esperan importantes novedades en diversos campos, como la inteligencia artificial, los centros de datos, la conducción autónoma y las arquitecturas de GPU. En este análisis profundo examinaremos las probables nuevas tecnologías que se presentarán en el NVIDIA GTC 2025 y su potencial impacto. También se analizará cómo las keynotes anteriores de Jensen Huang han influido en el precio de las acciones de NVIDIA mediante el análisis de datos, centrándose en los patrones de precio y las reacciones de los inversores antes y después de los eventos. Además, se presentarán las perspectivas del mercado GPU más allá del 2025, comparando las estrategias de NVIDIA con las de sus competidores (AMD, Intel, Google TPU) y evaluando los efectos potenciales de los anuncios en importantes empresas de IA, como Microsoft, OpenAI y Tesla, tanto en términos de colaboración como de competencia. Finalmente, se resumirán las opiniones de los analistas de Wall Street sobre las inversiones en NVIDIA y sus precios objetivo, y se analizarán las ventajas y desventajas de mantener las acciones de NVIDIA como inversión a largo plazo frente a vender inmediatamente después de eventos importantes. Con el respaldo de los datos oficiales más recientes y los informes de analistas globales, este artículo ofrece conocimientos de alta calidad en línea con los principios E-E-A-T (Experiencia, Experticia, Autoridad y Confiabilidad) de Google.
Nuevas Tecnologías Esperadas en la Keynote de Jensen Huang en el GTC 2025 y su Impacto(NVIDIA GTC)
Analicemos las tecnologías innovadoras que el CEO Jensen Huang probablemente presentará durante la keynote del NVIDIA GTC 2025. Basándonos en las pistas ya presentadas en el CES 2025 y en las hojas de ruta del sector, se espera que las siguientes nuevas tecnologías hagan su aparición:
- Arquitectura GPU de próxima generación “Blackwell” para productos: En el CES 2025, Jensen Huang presentó por primera vez la serie GeForce RTX 50, equipada con la arquitectura Blackwell. Esto llevó al lanzamiento de nuevas GPU, como la RTX 5090, y en el GTC 2025 se prevé el anuncio de un acelerador de IA basado en Blackwell para centros de datos. NVIDIA ya está preparando su próxima generación de aceleradores de IA, Blackwell, como sucesor del “extremadamente popular” Hopper (H100), con el objetivo de lanzarlo a finales de 2024. La arquitectura Blackwell apunta a mejoras dramáticas en el rendimiento respecto a la generación anterior, gracias a un mayor número de transistores y un ancho de banda de memoria mejorado. Está optimizada específicamente para la aceleración en centros de datos y en entornos HPC, eliminando cuellos de botella y aumentando la escalabilidad de cada carga de trabajo. Por ejemplo, se introduce un diseño de múltiples chips que permite que dos chips GPU funcionen como una sola, mediante un diseño dual GPU B200, conectado a través de una interconexión ultrasónica de 10 TB/s denominada NV-HBI, lo que ofrece un rendimiento comparable al de una única GPU. Esto posibilita una potencia de cálculo que supera los límites de un solo chip. Además, la generación Blackwell introduce una segunda generación de Transformer Engine que soporta FP8 y ahora también FP4, lo que se espera que incremente el rendimiento de inferencia para modelos lingüísticos ultragrandes hasta 30 veces y mejore la eficiencia energética 25 veces. Al utilizar cálculos de baja precisión mixtos (una combinación de FP4/FP6), se reducen drásticamente los requisitos de memoria y se maximiza el throughput de inferencia, reduciendo significativamente los costos de inferencia para servicios de IA a gran escala como ChatGPT. Estos nuevos productos basados en Blackwell (como los modelos B100, B200, etc.) están programados para una distribución masiva a partir de la segunda mitad del 2025, y NVIDIA invierte unos impresionantes 16 mil millones de dólares al año en I+D, con tres equipos de diseño trabajando en paralelo para mantener una hoja de ruta agresiva, lanzando nuevos productos cada 18–24 meses. Este rápido ritmo de desarrollo será difícil de igualar para la competencia, reforzando aún más el liderazgo tecnológico de NVIDIA.
- Plataforma AI NVIDIA Cosmos: Presentada en el CES 2025, la plataforma Cosmos es la tecnología clave que NVIDIA afirma inaugurar la era de la “Physical AI”. La plataforma abarca nuevos modelos de IA y pipelines para el procesamiento de datos de vídeo, diseñados para la robótica, vehículos autónomos y visión por computadora, lo que refuerza el uso de la IA en la robótica y en la conducción autónoma. Jensen Huang destacó el surgimiento de “IA que percibe, razona, planifica y actúa” – es decir, el ascenso de la IA agentiva – y subrayó que la IA que opera activamente en el mundo real, más allá de las funciones generativas, representa la próxima fase. La plataforma Cosmos ofrece una solución integrada que cubre desde el reconocimiento mediante sensores hasta la toma de decisiones y el control, y está diseñada específicamente para el procesamiento en tiempo real de datos de vídeo y visuales a gran escala. Durante el GTC 2025 se presentarán probablemente especificaciones técnicas detalladas y ejemplos prácticos de aplicaciones en robótica y vehículos autónomos. Además, se espera que la plataforma se integre con los sistemas de robótica NVIDIA Isaac y las suites de software DRIVE, acelerando el desarrollo de la próxima generación de robots y vehículos autónomos. Estas innovaciones en IA para la robótica probablemente conducirán a una adopción masiva de robots humanoides y máquinas autónomas en sectores como la logística, la manufactura y los servicios, lo que podría convertirse en un nuevo motor de crecimiento para NVIDIA.
- Innovaciones en PCs con IA y plataformas para desarrolladores: NVIDIA también busca expandir la tecnología de IA en el ámbito de los PCs. En el CES 2025 se presentaron un “framework de IA para PCs basados en RTX” junto con microservicios NVIDIA NIM y AI Blueprints; estas herramientas permiten la creación de contenido generativo de IA (por ejemplo, humanos digitales, podcast automatizados, generación de imágenes y vídeos) en PCs convencionales. En el GTC 2025 se espera el lanzamiento de la próxima generación de estaciones de trabajo o una plataforma de PC optimizada para IA, equipada con aceleración de IA. Por ejemplo, se mencionó en el CES un sistema compacto para desarrolladores con el nombre en código Project DIGITS – basado en la combinación de la CPU Arm de NVIDIA, Grace y la GPU Blackwell de última generación – como solución de escritorio para desarrolladores. Es posible que se presenten especificaciones detalladas y el calendario de lanzamiento durante el GTC. Estas innovaciones en PCs con IA y plataformas para desarrolladores permitirán que incluso pequeños desarrolladores e investigadores aprovechen fácilmente la tecnología de IA de vanguardia, ampliando la base del ecosistema de IA. Además, se espera que la tendencia a equipar los PCs de consumo con motores de IA dedicados (como asistentes IA o procesamiento en tiempo real de vídeo y audio) se acelere, posicionando las GPU de NVIDIA como aceleradores de IA imprescindibles incluso en el entorno personal.
- Actualización del chip de cómputo integrado para vehículos autónomos “DRIVE Thor”: En la industria automotriz, el próximo SoC para vehículos de NVIDIA, DRIVE Thor, es uno de los temas centrales que se tratarán en el GTC 2025. DRIVE Thor fue presentado conceptualmente ya en el GTC 2022 y se espera que, a partir del 2025, se implemente en vehículos producidos en masa como el ordenador central del vehículo. Al integrar la última arquitectura GPU Blackwell y núcleos de cálculo basados en Arm, Thor está diseñado para gestionar todas las funciones de IA de un vehículo – incluyendo la conducción autónoma, el sistema de infoentretenimiento y la fusión de sensores – en un solo chip. Con más de 20 veces la potencia de cómputo en IA y características que ofrecen hasta 128 GB de VRAM, NVIDIA subraya que “ahora es posible implementar IA generativa, monitoreo del conductor y conducción autónoma de nivel 4 directamente en el vehículo.” Durante el GTC 2025 se presentarán especificaciones detalladas, el estado de las colaboraciones y las herramientas de desarrollo para DRIVE Thor. La empresa china de vehículos eléctricos Zeekr ya mostró en el CES 2025 un sistema de conducción inteligente basado en Thor, y la compañía de camiones autónomos Aurora, junto con el proveedor de componentes Continental, está colaborando con NVIDIA para desarrollar camiones sin conductor basados en Thor. Estas amplias colaboraciones en la industria automotriz reforzarán la posición de NVIDIA como el “cerebro” de facto de la conducción autónoma para casi todos los OEM globales, con excepción de Tesla. Se esperan mejoras en NVIDIA Drive OS y en la plataforma Hyperion, las cuales tendrán importantes implicaciones para cumplir con las normativas de seguridad y calidad, y para mejorar la eficiencia en el desarrollo de sistemas de conducción autónoma. Se prevé que el mercado de soluciones de cómputo de IA en el sector automotriz experimente un fuerte crecimiento después del 2025, y el lanzamiento de Thor indica que NVIDIA tiene la intención de ofrecer una plataforma estándar en este segmento, lo que podría estimular el desarrollo de vehículos definidos por software (SDV).
- Otras posibles presentaciones: Durante el GTC 2025 también podrían anunciarse actualizaciones de NVIDIA Omniverse (una plataforma metaverso industrial y de simulación), planes en el ámbito de la computación cuántica (donde se espera que Jensen Huang modere un panel sobre este tema), nuevos productos para edge AI y para DPU en infraestructuras de comunicación (como BlueField), actualizaciones en el campo de la IA médica (plataforma Clara) y soluciones de IA nativas en la nube. En sus keynotes recientes, Jensen Huang ha enfatizado de manera constante la estrategia de plataforma de NVIDIA, que abarca tanto el hardware (por ejemplo, GPU, DPU, CPU) como los stacks de software (como CUDA, frameworks de IA, Omniverse) para construir un ecosistema integral. Por ello, es probable que presente una visión ampliada no solo para productos individuales sino también para la plataforma de aceleración de NVIDIA. Por ejemplo, podría afirmar que “NVIDIA, como empresa de cómputo full-stack, ofrece una solución integrada con X86 + GPU + DPU + software para la era de la IA.” Este mensaje brinda a los clientes corporativos la confianza de que “con NVIDIA obtienes todos los niveles necesarios para la innovación en IA,” lo que incrementará la demanda futura de la oferta de productos de NVIDIA y creará un fuerte efecto lock-in.
Impacto de los Nuevos Anuncios y Perspectivas de Crecimiento Futuro de NVIDIA(NVIDIA GTC)
Se espera que las nuevas tecnologías presentadas en el GTC 2025 tengan un impacto significativo tanto en la industria de la IA en su conjunto como en las perspectivas de crecimiento futuro de NVIDIA:
- Impacto en la investigación y la industria de la IA: Se prevé que las GPU de próxima generación, basadas en la arquitectura Blackwell, aumenten la escala y la velocidad de entrenamiento e inferencia de modelos de IA. Por ejemplo, se estima que una única GPU Blackwell proporcionará 10 petaflops en operaciones FP8 y 20 petaflops en operaciones sparce FP4, lo que implica un rendimiento de entrenamiento más de 2,5 veces superior y un rendimiento de inferencia 20 veces mayor en comparación con el modelo top actual, el H100. Esto permitirá a los investigadores entrenar modelos lingüísticos enormes, con cientos de miles de millones hasta billones de parámetros, mucho más rápido, mientras que los proveedores de servicios de IA podrán aumentar significativamente la inferencia en tiempo real para ofrecer funcionalidades de IA mejoradas a los usuarios. Además, el uso de cálculos de baja precisión (utilizando FP4) reducirá notablemente los costos de los servicios de IA al disminuir los requerimientos de memoria. La introducción de la plataforma “Physical AI” Cosmos simplificará y acelerará el desarrollo de la robótica y la IA autónoma, lo que podría provocar una explosión en la aplicación de la IA en sectores como la automatización industrial, la robótica logística y las ciudades inteligentes. Esto marca una transición en la que la IA no solo procesa información virtual, sino que también impulsa la automatización en el mundo real, acelerando la Cuarta Revolución Industrial.
- Impacto en los centros de datos y en la nube: Las nuevas soluciones de centro de datos de NVIDIA (como los aceleradores Blackwell, el superchip Grace-Blackwell y las actualizaciones de NVLink/NVSwitch) están diseñadas para aumentar drásticamente la capacidad de procesamiento de IA en centros de datos a escala hiperescalar. En particular, la estrecha integración de la CPU Grace y la GPU Blackwell (por ejemplo, el superchip GB200 que sigue al GH200) reduce los cuellos de botella entre la CPU y la GPU y agiliza el procesamiento de grandes volúmenes de datos mediante una memoria unificada, lo cual es esencial para construir infraestructuras de IA masivas en la nube. Se espera que proveedores de servicios en la nube, como Azure, adopten estos nuevos chips de NVIDIA para establecer enormes parques de entrenamiento e inferencia de IA, reforzando así su capacidad para ofrecer servicios de IA a clientes que van desde startups hasta grandes empresas. Además, plataformas de servidor como el NVIDIA HGX B200, que conecta ocho GPU B200 a través de NVLink en una sola placa para proporcionar capacidades de cómputo de IA a nivel de exaflop, representan una mejora revolucionaria en términos de densidad y eficiencia energética en los centros de datos. Esto permitirá a las empresas ejecutar más cálculos de IA con menos servidores, reduciendo el costo total de propiedad (TCO), mientras que los proveedores de la nube maximizan el rendimiento pese a las limitaciones de energía y espacio. Estos avances fortalecerán aún más la dominancia de NVIDIA en el mercado de infraestructura de IA. Según Morgan Stanley, se espera que la cuota de mercado mundial de NVIDIA para semiconductores AI en obleas aumente de aproximadamente el 51% en 2024 al 77% en 2025, lo que indica una demanda explosiva de los chips NVIDIA en comparación con la competencia. A medida que las inversiones en sistemas basados en Blackwell por parte de proveedores de la nube y centros de datos aumenten tras los anuncios en el GTC 2025, se prevé que las operaciones en centros de datos de NVIDIA experimenten un crecimiento ultrasónico, convirtiéndose en el principal motor de crecimiento de la empresa.
- Impacto en la conducción autónoma y la industria automotriz: Los chips de tecnología automotriz más recientes de NVIDIA, incluido el DRIVE Thor, se están convirtiendo en un componente clave en la tendencia hacia los vehículos definidos por software adoptados por los fabricantes de automóviles. A partir de 2025, se espera que los vehículos equipados con Thor integren decenas de ECUs individuales en una única computadora central de alto rendimiento, reduciendo significativamente los costos de desarrollo y la complejidad. Al adoptar la plataforma de NVIDIA, los fabricantes de automóviles podrán mejorar funciones como la conducción autónoma, los sistemas de asistencia al conductor y el infoentretenimiento (IVI) mediante actualizaciones OTA, al mismo tiempo que crean nuevos modelos de ingresos (por ejemplo, servicios de suscripción para la conducción autónoma). NVIDIA ya ha establecido alianzas estratégicas con varios OEM, incluidos Mercedes-Benz, Jaguar Land Rover y Volvo, y recientemente anunció una colaboración con Toyota para el desarrollo de la próxima generación de vehículos. Esto indica que los fabricantes tradicionales están adoptando activamente la tecnología de NVIDIA para competir con Tesla, lo que refuerza aún más la posición de NVIDIA como la plataforma estándar en la industria automotriz. Si en el GTC 2025 se presentan más casos de colaboración y nuevas alianzas, NVIDIA consolidará aún más su posición en la industria automotriz. Aunque el sector automotriz representa actualmente menos del 3% de los ingresos totales de NVIDIA, el potencial a largo plazo para un crecimiento significativo es elevado, y con la popularización de la conducción autónoma, este sector podría transformarse en una importante fuente de ingresos.
- Vinculación con el Futuro Crecimiento de NVIDIA: En resumen, las nuevas tecnologías que se presentarán en el GTC 2025 están estrechamente ligadas a la visión de crecimiento a largo plazo de NVIDIA. Jensen Huang ha enfatizado recientemente que “todas las industrias están siendo transformadas por la IA”, posicionando a NVIDIA como el motor de esta transformación. Lo que comenzó con las GPU se ha expandido ahora para incluir CPU, DPU, software y servicios, transformando a NVIDIA en una empresa de cómputo de IA integral. Los anuncios en el GTC 2025 reforzarán aún más esta estrategia full-stack, haciendo crecer exponencialmente el Mercado Total Alcanzable (TAM) de NVIDIA. Durante el GTC 2022, NVIDIA elevó su pronóstico de mercado a largo plazo a 1 billón de dólares al combinar segmentos como gaming, IA empresarial, Omniverse y la industria automotriz. Con el aumento de la demanda en los centros de datos, impulsado por la IA generativa, es probable que este pronóstico sea aún mayor. Wedbush Securities declaró que “la revolución de la IA es la mayor transformación tecnológica en 40 años, y sus orígenes se remontan a Jensen Huang”, y pronosticó que los gastos de capital relacionados con la IA superarán los 2 billones de dólares en los próximos tres años. Ubicada en el corazón de este enorme flujo de caja, los anuncios en el GTC 2025 demostrarán el compromiso inquebrantable de NVIDIA con la innovación y su determinación de no dejar pasar ninguna oportunidad de mercado. En pocas palabras, se espera que los nuevos anuncios tecnológicos en el GTC 2025 sean el motor de crecimiento de NVIDIA durante los próximos 5–10 años, mientras la empresa consolida su posición en sectores de crecimiento masivo como la IA, los centros de datos y la conducción autónoma.
Keynotes Anteriores de Jensen Huang y el Impacto en la Acción de NVIDIA: Efectos Basados en Datos(NVIDIA GTC)
Las keynotes del CEO de NVIDIA, Jensen Huang, no solo son importantes para el sector tecnológico, sino que también son seguidas de cerca por el mercado bursátil. La acción de NVIDIA ha mostrado a menudo oscilaciones a corto plazo en respuesta a los anuncios realizados durante eventos importantes como el GTC. Un análisis de las keynotes pasadas y los movimientos en la acción revela varios patrones interesantes.
Rally de Expectativas antes del Anuncio vs. Toma de Beneficios después del Anuncio(NVIDIA GTC)
Antes de los grandes eventos tecnológicos, los inversores tienden a comprar acciones esperando los anuncios. En el caso de NVIDIA, la acción suele subir justo antes de una gran keynote. Por ejemplo, durante el CES 2024, la acción de NVIDIA subió un 5% en un solo día, cuando los inversores esperaban la keynote de Jensen Huang, alcanzando casi un máximo histórico. El día de la keynote del CES 2024 (en enero) la acción subió un 6,4%, seguida de aumentos adicionales en los dos días siguientes, cuando el mercado reaccionó positivamente. Bank of America señaló en un análisis que “la acción de NVIDIA tiende a rendir de manera fuerte alrededor de las keynotes de Jensen Huang en el CES”, un patrón que también se observó en el CES 2025. Estos rallys de expectativas previos a los eventos también se observan en el GTC; los rumores sobre una nueva arquitectura GPU o producto hacen que la acción se precie de manera positiva ya de antemano.
Sin embargo, inmediatamente después del anuncio, la toma de beneficios puede provocar una caída temporal en la acción – el clásico fenómeno de “vender la noticia”. Un ejemplo ocurrió durante el GTC 2024 de marzo, cuando Jensen Huang presentó por primera vez el diseño del procesador de próxima generación, Blackwell, y la reacción inmediata del mercado fue que “las expectativas se cumplieron sin una sorpresa significativa.” Como consecuencia, la acción de NVIDIA cayó aproximadamente un 2% en las operaciones after-hours, interpretándose como que los inversores tomaron beneficios después de que el rally previo al anuncio ya había impulsado la acción. Es interesante notar que las acciones de las empresas asociadas mencionadas por Jensen Huang, en cambio, subieron. Durante la keynote del GTC 2024, por ejemplo, las acciones de compañías de software de ingeniería como Synopsys, Cadence y ANSYS subieron más del 2% después del anuncio de que se beneficiarían del software AI basado en Blackwell de NVIDIA, mientras que la acción de Dell subió un 3,2% tras las elogiosas palabras de Jensen Huang. Cuando Jensen Huang declaró “no existe ninguna empresa que construya soluciones integrales tan bien como Dell para crear una fábrica de IA”, el mercado reaccionó de inmediato. Así, la comunicación de Jensen Huang no solo tuvo un efecto dominó en NVIDIA, sino que también influyó en las acciones de sus socios.
Casos Relevantes según los Datos del Mercado
- Keynote CES, enero 2024: La acción subió un 6,4% el día de la keynote, seguida de aumentos adicionales en los dos días siguientes. (Después de meses de estancamiento, el evento provocó un avance.)
- Keynote GTC, marzo 2024: La acción cayó entre un 1,5% y un 2% el día del anuncio (después de haber sido ya muy alta debido a un rally a comienzos del año, lo que provocó la toma de beneficios).
- Keynote GTC, marzo 2023: Celebrada durante el auge de ChatGPT. Jensen Huang destacó el potencial de la IA generativa y presentó nuevos productos, lo que resultó en un modesto aumento en la acción durante el evento. (Un aumento más pronunciado ocurrió posteriormente en mayo durante la presentación de resultados trimestrales.)
- Keynote GTC, marzo 2022: Anuncio de la arquitectura Hopper (H100) y de una nueva visión empresarial. La acción se mantuvo estable el día del evento, para luego comenzar a subir en las semanas siguientes, con los analistas señalando que “generó confianza en los futuros puntos de inflexión de la IA.”
- Otros: Se han registrado oscilaciones en la acción cuando Jensen Huang mencionó a grandes clientes de IA durante otros eventos (por ejemplo, en Computex 2023) o cuando las keynotes coincidieron con la publicación de resultados trimestrales (por ejemplo, en torno al GTC de febrero 2025), lo que afectó el sentimiento general del mercado.
En resumen, aunque la acción de NVIDIA tiende a ganar impulso a corto plazo alrededor de las keynotes de Jensen Huang, la dirección final dependerá de cuán sorprendentes sean los anuncios reales en comparación con las expectativas. Cuando productos revolucionarios superan las expectativas del mercado (como ocurrió con el lanzamiento de la arquitectura Ampere en 2020), la acción puede dispararse inmediatamente después del evento; pero en la mayoría de los casos, la acción se corrige brevemente tras el período de expectación para retomar su tendencia ascendente a largo plazo.
Sentimiento de los Inversores y Tendencias a Largo Plazo de la Acción(NVIDIA GTC)
Las keynotes de Jensen Huang han reforzado de manera constante la confianza de los inversores en la hoja de ruta tecnológica de NVIDIA. Por ejemplo, durante el GTC 2022, NVIDIA presentó su visión plurianual para la IA y el software (incluyendo un TAM de 1 billón de dólares), elevando las expectativas de los inversores y llevando a los analistas a subir sus precios objetivo, afirmando frecuentemente que la empresa es “la líder de la revolución de la IA.” Credit Suisse pronosticó que “la arquitectura Hopper sería la mejora generacional más significativa de la historia,” y Rosenblatt Securities mantuvo una fuerte recomendación de compra describiéndola como un “punto de inflexión de billones de dólares que abarca gaming, IA empresarial, Omniverse y la industria automotriz.” Este optimismo entre los inversores profesionales ha respaldado la tendencia alcista a largo plazo de la acción de NVIDIA, a pesar de las oscilaciones a corto plazo.
Por supuesto, también ha habido picos y valles a corto plazo. A principios de 2025, a pesar de un impresionante aumento del 178% en la capitalización de mercado en 2024 impulsado por el boom de la IA, la acción de NVIDIA cayó un 8% en un solo día después de una previsión trimestral en febrero de 2025, en la que se declaró que “las expectativas eran buenas, pero no al nivel de líderes del mercado.” Esto se debió en parte a que los inversores, acostumbrados a crecimientos superiores al 100%, se sintieron decepcionados por una previsión de crecimiento de ingresos del 65%, y también reflejó cierta cautela cuando las inversiones en IA alcanzaron su punto máximo. Aunque el mercado pueda enfriarse a corto plazo, mientras estos fundamentos de crecimiento se mantengan, la acción de NVIDIA continuará subiendo a medio y largo plazo. Conocida como el “barómetro de la IA”, la capitalización de mercado de NVIDIA superó los 3 billones de dólares durante el boom de la IA de 2023–2024, y los inversores esperan con ansias los discursos de Jensen Huang para la próxima fase de crecimiento.
En resumen, las keynotes de Jensen Huang han actuado como catalizadores a corto plazo para la acción de NVIDIA. Antes del anuncio, la acción se beneficia del entusiasmo de los inversores, mientras que las correcciones posteriores dependen de cuán bien se cumplan las expectativas con los anuncios. Al final, la acción de NVIDIA está impulsada por si la visión presentada por Jensen Huang se materializa y por el crecimiento estructural del mercado de la IA. Gran parte de su ambiciosa visión (como el auge del cómputo GPU, la revolución del deep learning, el cómputo “IA primero”, etc.) ha resultado ser en gran parte correcta, y la acción ha recompensado enormemente a los inversores tempranos a lo largo del tiempo. Pasando de un precio de tan solo unas pocas decenas de dólares a principios de la década de 2010, la acción de NVIDIA ha subido a cientos de dólares (antes del split) a mediados de la década de 2020, ofreciendo rendimientos extraordinarios a quienes invirtieron temprano, a pesar de algunas caídas. Esto demuestra que las keynotes de Jensen Huang no son meros espectáculos, sino planes de acción concretos – una razón fundamental por la que los inversores prestan tanta atención a sus palabras. Es probable que estos patrones continúen, y aunque el GTC 2025 pueda provocar volatilidad a corto plazo, finalmente reforzará la confianza en la trayectoria futura de NVIDIA.
Perspectivas del Mercado GPU Más Allá del 2025: NVIDIA vs. AMD, Intel y TPU(NVIDIA GTC)
¿Cómo será el mercado de GPU y aceleradores de IA después del 2025? Basándonos en las tendencias actuales y en las estrategias adoptadas por las empresas, se espera que NVIDIA mantenga su posición como líder indiscutible, mientras que sus competidores buscarán aprovechar nichos de mercado. En particular, aunque es probable que la dominancia de NVIDIA en aceleradores de IA para centros de datos se mantenga en el futuro próximo, competidores como AMD, Intel y Google (TPU) seguirán implementando contramedidas. Analicemos cada aspecto en detalle.
NVIDIA: Cuota de Mercado Abrumadora y una Roadmap Agresiva(NVIDIA GTC)
NVIDIA ya es la líder en el mercado de aceleradores de IA e invierte fuertemente para ampliar aún más su ventaja. Según Morgan Stanley, en 2024 NVIDIA consumió el 51% de la capacidad mundial de obleas para procesadores de IA, y se espera que su cuota de mercado aumente hasta el 77% en 2025. En comparación, todos los demás competidores juntos representan solo el 23%, lo que significa que NVIDIA absorbe la gran mayoría de la demanda de chips de IA. Específicamente, se prevé que la cuota de Google disminuirá del 19% al 10%, la de Amazon AWS del 10% al 7% y la de AMD del 9% al 3%, demostrando que NVIDIA ocupa una posición indiscutible. Además, NVIDIA ha asegurado una ventaja significativa al fijar una capacidad de producción mucho mayor en fabricantes como TSMC en comparación con sus competidores.
En cuanto a la hoja de ruta tecnológica, NVIDIA se distingue por su fuerte capacidad innovadora. Incluso tras el lanzamiento de los productos Blackwell (B100/B200) a finales de 2024 hasta 2025, NVIDIA ya ha comenzado, según informes, el desarrollo de su próxima arquitectura (la denominada serie 300). La compañía planea aumentar su presupuesto en I+D en 2024 hasta 16 mil millones de dólares, operando tres líneas de productos en paralelo y lanzando nuevos productos cada 18–24 meses, inversiones que son muchas veces superiores a las de sus competidores. Esta escala y el rápido ritmo de desarrollo seguirán favoreciendo a NVIDIA en la configuración del futuro mercado de GPU. Además, el ecosistema de software CUDA de NVIDIA sigue siendo una gran fortaleza, ya que tanto desarrolladores como empresas continúan prefiriendo NVIDIA por su rendimiento y por la madurez de su ecosistema. Un análisis de SemiAnalysis observó que “la fuerza del ecosistema NVIDIA radica en su capacidad para permitir el desarrollo y la expansión sobre una misma plataforma, ya se trate de una GPU para juegos de unos pocos cientos de dólares o de un clúster compuesto por decenas de miles de GPU,” lo que sugiere que NVIDIA mantendrá su ventaja gracias a la amplia participación de los desarrolladores, a diferencia de los competidores con acceso limitado al hardware.
No obstante, NVIDIA se enfrenta a desafíos debido a la enorme demanda. A medida que el mercado crece rápidamente, podrían agravarse las escaseces de productos como el H100, y los clientes – en particular los proveedores de servicios en la nube – podrían intentar reducir su dependencia de NVIDIA aprovechando su poder de negociación. Sin embargo, a corto plazo existen pocas alternativas que puedan competir con el rendimiento y el ecosistema de NVIDIA, lo que explica por qué algunos dicen que “NVIDIA es el único juego en la ciudad” en el mercado de chips de IA. La opinión general es que NVIDIA mantendrá su enorme ventaja sobre la competencia durante los próximos años, con Wedbush pronosticando que NVIDIA seguirá siendo el mayor beneficiario de las inversiones en IA hasta bien entrado el 2025.
AMD: Muy Prometedora Tecnológicamente, pero con Desafíos en Ecosistema y Adopción
Tradicionalmente, AMD es considerada la única rival de NVIDIA en el mercado de GPU discretas, situándose en segundo lugar detrás de NVIDIA en el sector de PC, y ha desarrollado su serie de GPU “Instinct” MI para la aceleración de IA en centros de datos. Las fortalezas de AMD incluyen su amplia experiencia en diseño de semiconductores y sus comprobados éxitos en HPC. De hecho, AMD domina una parte significativa del mercado de CPU para servidores x86 y ha demostrado el rendimiento de sus GPU al impulsar el primer superordenador exascale del mundo (Frontier del Oak Ridge National Laboratory). MI300, la última APU para centros de datos de AMD lanzada en 2023, presenta un diseño innovador que integra CPU (con el nombre en clave Elburs) y chiplets de GPU mediante apilamiento 3D, y está equipada con abundante memoria HBM. Se espera que la serie MI300, incorporada en sistemas como el superordenador El Capitan, ofrezca un rendimiento destacado en determinadas cargas de trabajo HPC.
Desde un punto de vista comercial, sin embargo, la cuota de mercado de AMD en el ámbito de los aceleradores de IA sigue siendo modesta. Según Morgan Stanley, se espera que la cuota de AMD en el consumo de obleas para chips de IA descienda del 9% en 2024 al 3% en 2025, lo que significa que, incluso si AMD aumenta su producción en términos absolutos, su cuota de mercado disminuirá en un mercado de rápido crecimiento y AMD no podrá competir con la creciente demanda de chips de NVIDIA. Una gran desventaja de los aceleradores Instinct de AMD es su ecosistema de software. A diferencia de CUDA de NVIDIA, AMD ofrece la plataforma open source ROCm, que a menudo se considera menos madura en cuanto a facilidad de uso y optimización para desarrolladores. Como resultado, los proveedores de servicios en la nube y las empresas han adoptado lentamente los aceleradores AMD, a menudo limitándose a pequeños proyectos piloto (por ejemplo, Microsoft Azure ofreció máquinas virtuales MI200, pero con adopción limitada). Además, aunque los diseños heterogéneos innovadores como el MI300 tienen un gran potencial, deben superar desafíos relacionados con el rendimiento inicial de la producción y los costos antes de lograr el éxito a gran escala. SemiAnalysis observó que “todos dicen que se necesita una alternativa a NVIDIA, pero la única empresa tradicional de silicio que realmente puede ofrecer esa alternativa es AMD, que tiene un historial de entregar GPU HPC a tiempo,” y añadió que “la pregunta clave es si AMD podrá suministrar el volumen y el soporte de software que exige el mercado.” El período 2024–2025 será crucial para AMD, que deberá aumentar la producción del MI300 y demostrar tanto el rendimiento como la compatibilidad con el ecosistema. Si AMD logra obtener pedidos significativos de grandes clientes de la nube (como Oracle o Microsoft) o mejora la compatibilidad del software para competir en cargas de trabajo de IA más amplias, existe el potencial de un aumento en la cuota de mercado. Sin embargo, la opinión general es que “NVIDIA está muy adelantada y AMD tendrá dificultades para cerrar la brecha a corto plazo.” En última instancia, la estrategia a largo plazo de AMD probablemente consistirá en aprovechar su amplio portafolio de CPU (Zen), FPGA/Xilinx y GPU para ofrecer soluciones personalizadas a clientes específicos o competir en términos de rentabilidad frente a NVIDIA. Si algunas empresas pueden adquirir múltiples aceleradores MI de AMD por el precio de una sola NVIDIA H100, esto podría representar una alternativa atractiva para clientes sensibles al precio, siempre que la diferencia de rendimiento sea mínima y la portabilidad del software sea sencilla. Esto subraya la necesidad de que AMD invierta aún más en software y colabore estrechamente con sus clientes.
Intel: Retos Recurrentes y Contratiempos, con un Nuevo Intento en 2025(NVIDIA GTC)
Intel ha experimentado dificultades inesperadas en el ámbito de los aceleradores de IA. La empresa proclamó en el pasado “no existe una era de IA sin GPU”, adquirió startups de deep learning (como Nervana) entre 2017 y 2019 y anunció planes para desarrollar sus propias GPU basadas en la arquitectura Xe, pero finalmente no logró resultados significativos. En 2022, Intel completó su primera GPU HPC, Ponte Vecchio (comercializada como Intel Data Center GPU Max), que fue suministrada al Ministerio de Energía de EE. UU. para el superordenador Aurora, pero incluso este lanzamiento se realizó con varios años de retraso respecto a los planes iniciales. Además, el procesador AI Gaudi de Habana Labs, que Intel adquirió, tuvo una adopción muy limitada – solo AWS lanzó instancias Gaudi2 y las aplicaciones permanecieron muy restringidas. SemiAnalysis señaló que “Gaudi 2 de Habana prácticamente no ha sido adoptado fuera de AWS, y a nivel interno, Intel parece estar fusionando efectivamente la línea de productos en Falcon Shores.” A principios de 2024, Intel presentó sus planes para su próxima generación de arquitectura híbrida, Falcon Shores, durante un evento para desarrolladores; inicialmente se concibió como un chip híbrido GPU+CPU, pero ahora está previsto que sea un producto exclusivamente GPU para 2025. Esto sugiere un cambio en los planes para chips de IA independientes, como podría ser un eventual Gaudi 3 de Habana.
En resumen, aunque Intel sigue siendo un actor importante en el sector de las CPU, se queda constantemente rezagada en el ámbito de la aceleración de IA en términos de tecnología, software y confianza del mercado, en comparación con NVIDIA y AMD. Sin embargo, Intel ha prometido lanzar en 2025 una nueva GPU para centros de datos, denominada Falcon Shores. Para tener éxito, este producto deberá ofrecer al menos un rendimiento y una eficiencia energética comparables a los del H100, integrarse de manera perfecta con las CPU x86 y contar con un robusto soporte de software (por ejemplo, OneAPI). Las expectativas actuales de los inversores son bajas. Morgan Stanley predice que la cuota de Intel en el consumo de obleas para chips de IA en 2025 será de aproximadamente el 1%, lo que significa que el volumen de aceleradores de IA de Intel será insignificante en relación con el mercado total. La estrategia principal de Intel parece estar desplazándose hacia “apoyar a NVIDIA como foundry,” como ya sugirió Jensen Huang, lo que indica que Intel probablemente se enfocará más en producir chips para NVIDIA que en competir en la venta de GPU.
En conclusión, la estrategia de Intel en el mercado de aceleradores de IA aún no ha dado resultados claros, y el 2025 parece ser su “último intento.” Si Falcon Shores falla o resulta no ser competitivo, Intel podría concentrarse en sus actividades principales, como las CPU y las FPGA (Altera), o abordar la aceleración de IA a través de modelos de foundry o plataformas. A pesar del enorme capital y los recursos humanos de Intel, es poco probable que represente una amenaza directa para NVIDIA en los próximos 2–3 años. El sentimiento del mercado incluso sugiere que “Intel prácticamente se ha retirado de la competición en IA.”
Google TPU: Alta Eficiencia Interna pero un Ecosistema Externo Limitado(NVIDIA GTC)
El TPU (Tensor Processing Unit) de Google configura el panorama competitivo para la aceleración de IA de manera diferente a NVIDIA. Google ha diseñado sus propios chips de IA para optimizar las cargas de trabajo en sus enormes centros de datos, apoyando servicios como búsqueda, publicidad, traducción y YouTube. Desde que comenzó su desarrollo en 2015 y tras su primera presentación en 2016, el TPU ha pasado por varias versiones, siendo la versión 4 ya comercializada y disponible para ciertos clientes a través de Google Cloud. Además, según algunos informes, se están desarrollando internamente roadmaps para el TPU versión 5 y 6.
La fortaleza del TPU de Google reside en su estrecha integración con su propio stack de software, lo que ofrece un rendimiento excelente y una notable eficiencia en costos para tareas específicas de IA. Por ejemplo, Google utiliza TPU Pods (clusters de miles de TPU) para alcanzar una alta densidad de cómputo al entrenar modelos lingüísticos masivos, y afirma que esto ofrece una superior eficiencia de costos en comparación con las GPU de la misma generación de NVIDIA. SemiAnalysis ha observado que “el maduro stack hardware/software de Google les proporciona una ventaja estructural en términos de rendimiento y costo total de propiedad (TCO) para sus cargas de trabajo de IA internas.”
Sin embargo, una limitación importante del TPU es su ecosistema externo reducido. Google ofrece el TPU exclusivamente a través de sus propios servicios en la nube y no comercializa el chip de manera externa. Además, los detalles sobre la arquitectura y el entorno de programación del TPU no se han divulgado suficientemente a los desarrolladores externos, lo que limita su aplicación a gran escala. Los grandes clientes suelen exigir una documentación completa y pruebas previas antes de adoptar un nuevo chip, pero Google tiende a revelar las especificaciones solo tras un despliegue masivo, lo que dificulta la colaboración externa. Muchas de las funciones innovadoras del TPU (relacionadas con la memoria y las redes) también se mantienen en secreto para los usuarios externos, impidiendo que los desarrolladores realicen ajustes a nivel bajo o implementen soluciones personalizadas. En definitiva, aunque el TPU de Google puede ser eficaz para las necesidades internas de Google, no se considera una amenaza seria para la dominancia global de NVIDIA. Las estimaciones de Morgan Stanley indican que la cuota de mercado del TPU de Google descenderá del 19% en 2024 al 10% en 2025, lo que significa que, incluso si Google aumenta el uso de sus propios chips, no igualará la rápida expansión de la cuota de mercado de NVIDIA.
La estrategia de Google no es reemplazar completamente a NVIDIA, sino optimizar ciertos carritos de trabajo con sus propios chips para reducir costos. En la práctica, Google Cloud sigue ofreciendo instancias GPU NVIDIA A100/H100, y los equipos de investigación de Google también utilizan GPUs cuando es necesario. Informes recientes indican además que Google ha adquirido miles de unidades adicionales del H100 de NVIDIA. Por lo tanto, es probable que el TPU de Google continúe siendo un acelerador especializado para uso interno de Google, con una competencia directa limitada respecto al ecosistema externo de NVIDIA. Si Google perfecciona aún más el TPU para lograr ventajas extremas en relación precio/rendimiento o lo abre a entornos en la nube externos, esto podría generar cambios en el mercado. Según la estrategia actual, el TPU se percibe principalmente como una herramienta para fortalecer la competitividad interna de Google.
Otros: Amazon AWS, Chips Propios de Microsoft, Meta, Startups y China(NVIDIA GTC)
Existen otros actores en el mercado competitivo. Amazon AWS ha desarrollado sus propios chips de IA para entrenamiento (Trainium) e inferencia (Inferentia) y los ofrece como parte de sus instancias EC2. Sin embargo, al igual que el TPU, el Trainium de AWS está disponible únicamente dentro de la nube de AWS y carece de la versatilidad de un chip de uso general. Morgan Stanley prevé que la cuota de AWS en el consumo de chips de IA descenderá del 10% en 2024 al 7% en 2025, lo que sugiere que, incluso si AWS aumenta su producción, seguirá siendo marginal en comparación con la creciente demanda de GPUs de NVIDIA. Microsoft, que se tratará más adelante, también está desarrollando su propio acelerador de IA denominado Azure Maia, aunque se espera que su impacto se manifieste parcialmente solo después de 2025.
Meta (Facebook) también ha trabajado en aceleradores para inferencia de IA, como el MTIA y un proyecto de aceleradores para entrenamiento, pero aparentemente cambió de estrategia tras problemas de diseño en 2022. Actualmente, Meta depende en gran medida de las GPUs H100 de NVIDIA para el entrenamiento a gran escala de IA, lo que implica una alta dependencia a corto plazo. Sin embargo, es poco probable que Meta abandone completamente su ambición de desarrollar sus propios chips orientados al ahorro de costos a largo plazo.
Numerosas startups de semiconductores de IA han emergido, pero la mayoría aún no alcanza el nivel necesario para desafiar a NVIDIA a nivel comercial. Ejemplos como Cerebras (con su motor de escala de oblea) y Graphcore (con su IPU) son notables, pero Cerebras ofrece principalmente sus servicios a través de su propia nube y sus precios son elevados, lo que limita su accesibilidad. Graphcore, a pesar de inversiones de SoftBank y otros, ha enfrentado dificultades recientemente. Otras empresas, como Tenstorrent (dirigida por Jim Keller), han llamado la atención, pero SemiAnalysis señala que “tanto el hardware como el software aún necesitan madurar más.” En última instancia, la mayoría de las startups aún no pueden desafiar el ecosistema de NVIDIA, y muchas probablemente seguirán siendo actores de nicho o serán adquiridas por compañías más grandes.
Además, los competidores chinos representan una parte importante del mercado. Debido a las restricciones de exportación impuestas por Estados Unidos, China tiene dificultades para importar GPUs de vanguardia como la A100/H100, lo que ha impulsado a empresas como Huawei (con su serie Ascend), Alibaba, Tencent, Biren y Cambricon a intensificar sus esfuerzos por desarrollar sus propios chips de IA. Aunque algunos han producido chips a escala de 7 nm, aún están muy por detrás en cuanto a rendimiento máximo y enfrentan desafíos debido a las limitaciones en el uso de los procesos más recientes de TSMC. A pesar de una fuerte demanda interna, las limitaciones técnicas y de producción probablemente impedirán que las empresas chinas sustituyan completamente a NVIDIA antes del 2025. En su lugar, NVIDIA ha logrado mantener parte de su cuota de mercado vendiendo versiones degradadas de la A100 (como la A800) a China. Si las sanciones se prolongan a largo plazo, las empresas locales chinas podrían eventualmente reducir la brecha, pero desde una perspectiva global es poco probable que los chips chinos amenacen la posición internacional de NVIDIA.
Resumen de las Perspectivas Más Allá del 2025
Se espera que, tras el 2025, el mercado de aceleradores GPU/IA continúe experimentando una demanda explosiva. Con grandes modelos lingüísticos, IA generativa, servicios de IA en la nube y edge AI, todos en fases tempranas de adopción, IDC y otros pronostican un crecimiento anual del 20–30% en el mercado de semiconductores de IA. En un mercado así, se espera que NVIDIA – gracias a su experiencia tecnológica, su amplio portafolio de productos y su robusto ecosistema – mantenga una posición dominante en el futuro próximo. Aunque AMD posee un potencial tecnológico considerable, probablemente tomará tiempo aumentar significativamente su cuota de mercado, y Intel parece quedar rezagado. Los chips propios de los proveedores de la nube están destinados principalmente a la autosuficiencia y coexisten a menudo con los productos de NVIDIA. Por ejemplo, Microsoft Azure adopta una estrategia dual utilizando sus propios chips Maia para ciertas cargas de trabajo, mientras colabora con NVIDIA en el superchip GB200 y sigue comercializando las VMs H100 como su producto principal. Esta tendencia se observa en la mayoría de los proveedores de la nube, lo que permite a NVIDIA mantener márgenes elevados y la dominancia del mercado mientras expande su cadena de suministro.
Sin embargo, los desafíos de la competencia no deben subestimarse. En particular, la adquisición de Xilinx ha dotado a AMD de tecnología FPGA/adaptativa que, combinada con su experiencia consolidada en CPU y GPU, podría ofrecerle oportunidades en nichos de mercado en los que NVIDIA no está presente (por ejemplo, soluciones integradas FPGA+GPU para redes 5G en compañías de telecomunicaciones). Además, a medida que los stacks de software de código abierto sigan evolucionando y la dependencia de CUDA disminuya, será más fácil ejecutar cargas de trabajo de IA en chips AMD u otros. Si grandes clientes como Google y Meta emplean cada vez más sus propios chips, los ingresos principales de NVIDIA podrían sufrir un leve descenso. Con estos factores en mente, el liderazgo tecnológico, la capacidad de ejecución y la confianza del mercado en NVIDIA indican que su “monopolio” probablemente se mantendrá durante varios años después del 2025. Se espera que la respuesta de los competidores consista en centrarse en nichos de mercado o colaborar parcialmente con NVIDIA, y a menos que se produzca un cambio disruptivo, la expresión “NVIDIA lo tiene todo” probablemente seguirá siendo válida en la industria de las GPU.
Impacto del GTC 2025 en Microsoft, OpenAI y Tesla(NVIDIA GTC)
Los anuncios en el GTC 2025 de NVIDIA no solo afectarán a NVIDIA, sino que también tendrán repercusiones de gran alcance para las grandes empresas tecnológicas del sector de la IA. En particular, Microsoft, OpenAI y Tesla – actores líderes en IA con relaciones de colaboración o competencia muy estrechas con NVIDIA – podrían experimentar cambios en las dinámicas de asociación y competencia tras el GTC 2025. Examinemos cada caso en detalle.
Colaboración y Competencia con Microsoft
Microsoft siempre ha sido un socio especial para NVIDIA. La plataforma cloud Azure ha desplegado en grandes volúmenes las GPU H100/A100 de NVIDIA para gestionar las cargas de trabajo de IA de innumerables clientes, incluyendo OpenAI, y ambas empresas mantienen una colaboración de larga data en el ámbito de la infraestructura de IA. Durante el GTC 2024, NVIDIA y Microsoft anunciaron conjuntamente que fueron los primeros en adoptar el superchip de nueva generación Grace-Blackwell (GB200) en Azure, tras lo cual Azure presentó una serie de máquinas virtuales a gran escala impulsadas por las últimas GPU de NVIDIA (incluida la H100 v5). Además, Microsoft integra las funcionalidades de IA basadas en GPU RTX de NVIDIA (como la coprocessación acelerada por IA) en sus productos de software, tales como Windows y Office. En este contexto, los anuncios en el GTC 2025 representan una oportunidad importante para que Microsoft adopte nuevas tecnologías. Por ejemplo, si se presenta un sistema HGX basado en Blackwell, es probable que Microsoft Azure sea uno de los primeros en adoptarlo, lo que reforzaría aún más su infraestructura de IA. Desde el punto de vista de Microsoft, una colaboración estrecha con NVIDIA les proporciona una ventaja competitiva frente a proveedores cloud rivales como AWS y Google.
Por otro lado, Microsoft no es solo uno de los mayores clientes de NVIDIA, sino también un potencial competidor. Microsoft ha desarrollado su propio chip de IA (el acelerador Azure “Maia”) y presentó oficialmente el Azure Maia 100 AI Accelerator junto con una CPU ARM Cobalt durante el evento Ignite 2023. Este proyecto fue concebido para procesar ciertas cargas de trabajo de IA en los centros de datos de Azure mediante chips dedicados, y se desarrolló en colaboración con OpenAI. Sam Altman, CEO de OpenAI, declaró: “Diseñamos conjuntamente la infraestructura de Azure con Microsoft, y cuando se compartió el chip Maia, lo optimizamos juntos”, lo que sugiere que Maia podría allanar el camino para un entrenamiento de modelos de gran escala más eficiente en costos. Esto indica que la alianza entre Microsoft y OpenAI podría, a largo plazo, reducir su dependencia de NVIDIA y permitir un mejor control de los costos. Algunos informes de finales de 2024 incluso especulaban que “Microsoft está desarrollando su propio chip B200 (en respuesta al B100 de NVIDIA) y que existe una especie de estancamiento entre NVIDIA y Microsoft.” Durante el GTC 2025, si NVIDIA destaca las mejoras de rendimiento de la serie Blackwell, Microsoft podría ajustar su estrategia de desarrollo comparándola con los objetivos del proyecto Maia. Si se descubre que Blackwell de NVIDIA es mucho más potente de lo esperado, Microsoft podría posponer o reducir el lanzamiento de su propio chip; en caso contrario, si el chip resulta competitivo, Microsoft podría aumentar el uso de Maia para reemplazar parcialmente las compras a NVIDIA.
A corto plazo, dado que la colaboración entre Microsoft y NVIDIA es mutuamente beneficiosa, es probable que los anuncios en el GTC 2025 fortalezcan aún más su asociación. Un comunicado reciente de AIwire mostró que Microsoft y NVIDIA demostraron conjuntamente la optimización del superchip GB200 de nueva generación en Azure, con la estrategia de ofrecer la tecnología más reciente de NVIDIA a los clientes de Azure lo antes posible. Esto indica que Microsoft seguirá colaborando estrechamente con NVIDIA para mantener su posición de liderazgo en infraestructura de IA hasta que sus propios chips estén listos. Además, se espera que Microsoft continúe sus colaboraciones dentro del ecosistema con NVIDIA – por ejemplo, participando en el extenso pacto de IA de EE. UU. (PGIAI) liderado por NVIDIA – para coordinar iniciativas conjuntas en cuestiones sociales relacionadas con la IA.
OpenAI: ¿Cliente Clave y Potencial Competidor?(NVIDIA GTC)
OpenAI, la fuerza impulsora detrás del boom de la IA generativa ilustrado por ChatGPT en 2023, es uno de los mayores usuarios de las GPU de NVIDIA. Decenas de miles de GPU A100 de NVIDIA se utilizaron para entrenar modelos como GPT-4, y según algunos informes, OpenAI utiliza la infraestructura H100 en Microsoft Azure para desarrollar su próxima generación de modelos. Para OpenAI, los anuncios en el GTC 2025 son cruciales desde el punto de vista del cliente. Un mejor rendimiento, tecnologías que reduzcan los costos en el entrenamiento y la inferencia de IA, y otras mejoras asociadas a las nuevas GPU basadas en Blackwell podrían ayudar a OpenAI a entrenar modelos aún más potentes (como GPT-5) más rápidamente o a reducir drásticamente los costos operativos de sus servicios API. Por ejemplo, si Blackwell proporciona una mejora de 30 veces en la eficiencia de inferencia, esto reduciría drásticamente los costos operativos de la API de ChatGPT de OpenAI. Por ello, OpenAI vigila de cerca la hoja de ruta de NVIDIA, y asegurar rápidamente los nuevos productos será una prioridad absoluta.
La relación entre OpenAI y NVIDIA es esencialmente colaborativa. No existe competencia directa, ya que OpenAI se centra en el desarrollo de modelos y servicios de IA, mientras que NVIDIA proporciona la infraestructura de IA. Sin embargo, hay cierta presión indirecta para que OpenAI reduzca su dependencia de NVIDIA, por ejemplo, a través del desarrollo conjunto del chip Maia con Microsoft, como ya se ha mencionado. A finales de 2024, OpenAI también anunció el proyecto Stargate, que, con el apoyo de inversiones de SoftBank y Oracle, tiene como objetivo construir una infraestructura masiva de supercomputadoras de IA en Estados Unidos. En la fase inicial, se incluirá el despliegue de un gran número de GPU de NVIDIA, pero se especula que, a largo plazo, OpenAI podría desarrollar su propio hardware. Según informes de The Next Platform, “OpenAI eventualmente podría construir su propio hardware, de forma independiente de Microsoft y NVIDIA,” y circulan rumores de que OpenAI estaría explorando la posibilidad de un acelerador de IA propio. Incluso si se desarrollase dicho chip, es probable que su rendimiento y estabilidad inicialmente queden por detrás de las ofertas de NVIDIA, lo que significa que OpenAI deberá seguir confiando en la plataforma de NVIDIA en el futuro próximo.
Por lo tanto, la hoja de ruta de rendimiento presentada en el GTC 2025 podría servir como referencia para determinar cuán agresivamente OpenAI debe impulsar su propia estrategia de hardware. Si NVIDIA demuestra mejoras innovadoras significativamente superiores a lo esperado (por ejemplo, un aumento de cinco veces en la velocidad de entrenamiento), OpenAI podría decidir que puede seguir siendo competitiva en su plataforma actual basada en NVIDIA y posponer el desarrollo de su propio chip. Si, en cambio, las mejoras son modestas o se presentan limitaciones en el suministro, OpenAI podría considerar fortalecer su estrategia independiente en colaboración con Microsoft. No obstante, NVIDIA ha superado de manera consistente las expectativas de OpenAI en el desarrollo de su plataforma, y OpenAI ha reconocido durante mucho tiempo que “NVIDIA posee la plataforma de IA más perfecta del mundo.” Por ello, es muy probable que la interdependencia entre OpenAI y NVIDIA continúe mucho después del GTC 2025, con NVIDIA como proveedor de las GPU más avanzadas que permiten a OpenAI construir servicios de IA revolucionarios, creando un círculo virtuoso que impulsa aún más la demanda de GPU.
Tesla: Dinámicas de Competencia sin Colaboración Directa, Efectos Indirectos
La relación entre Tesla y NVIDIA ha evolucionado de una relación cliente-proveedor a una situación de competencia. Anteriormente, Tesla utilizó las soluciones Drive PX2 de NVIDIA para sus sistemas de conducción autónoma (2016–2017), pero en 2019 desarrolló su propio chip FSD (FSD Computer) para reemplazar las soluciones de NVIDIA. Además, mientras que Tesla anteriormente operaba una supercomputadora compuesta por miles de GPU de NVIDIA para entrenar sus sistemas de conducción autónoma, recientemente ha comenzado a utilizar su propia supercomputadora de IA, Dojo, que se puso en marcha en 2023. En este contexto, es poco probable que los anuncios en el GTC 2025 conduzcan a una colaboración directa entre Tesla y NVIDIA; sin embargo, los avances tecnológicos de NVIDIA podrían influir indirectamente en la estrategia y el posicionamiento de Tesla en el mercado.
En cuanto a la tecnología de conducción autónoma, la introducción de DRIVE Thor de NVIDIA y su adopción cada vez mayor en la industria automotriz proporcionan a los demás OEM una herramienta competitiva poderosa contra Tesla. Mientras que Tesla ha desarrollado durante mucho tiempo su tecnología de conducción autónoma con hardware y software propios integrados, muchos fabricantes de automóviles ahora confían en la plataforma de NVIDIA para ponerse al día. Por ejemplo, cuando empresas como Mercedes y Toyota colaboran con NVIDIA para desarrollar sistemas altamente autónomos, es probable que otros fabricantes pronto puedan implementar funciones autónomas comparables a las de Tesla. Marcas emergentes de vehículos eléctricos, como Zeekr, incluso han anunciado que planean equipar sus vehículos con sistemas basados en Thor, lo que los convierte en potenciales competidores de Tesla en el mercado chino. La adopción generalizada del ecosistema NVIDIA Drive aumenta la presión competitiva sobre Tesla. Como respuesta, Tesla deberá seguir optimizando su software FSD y mejorar aún más el rendimiento de su ordenador AI para vehículos (la próxima generación del FSD Computer). Si NVIDIA lanza una nueva generación de chips para automoción que supere ampliamente a Thor o se convierta en un estándar industrial, Tesla podría enfrentarse a una elección estratégica: continuar con su estrategia independiente o considerar la integración de la tecnología de NVIDIA en algunos segmentos. Aunque actualmente no hay señales de que Tesla vuelva a optar por NVIDIA, podría surgir la necesidad – por ejemplo, en la producción en masa de robotaxis o de robots Optimus – en la que no se descarte una colaboración parcial.
Además, existen efectos indirectos en el ámbito de las supercomputadoras de IA. Dojo, la supercomputadora de IA desarrollada internamente por Tesla para entrenar sus redes neuronales de conducción autónoma, aspira a mejorar la eficiencia entre 4 y 6 veces en comparación con el H100 en ciertas tareas. Si los nuevos productos basados en Blackwell de NVIDIA logran igualar o superar el rendimiento de Dojo, la ventaja de la solución propia de Tesla podría disminuir. Si Tesla consideraba inicialmente que era más rentable usar su propia supercomputadora en lugar de GPUs, una mayor eficiencia de las GPUs podría llevarla a preferir nuevamente las GPUs de NVIDIA. Sobre todo porque Dojo aún no ha demostrado completamente su escalabilidad y versatilidad fuera del uso interno, mientras que las GPUs de NVIDIA ofrecen una alta versatilidad para diversas aplicaciones, Tesla podría aumentar sus compras de GPUs de NVIDIA si decide no ampliar Dojo. Cabe destacar que, en 2023, Elon Musk ya intentó asegurar más GPUs de NVIDIA para su startup de IA, xAI, lo que subraya la importancia práctica de la tecnología de NVIDIA.
El sector de la robótica también resulta interesante. Tesla está desarrollando su robot humanoide, Optimus, al que denomina “su producto más importante.” NVIDIA también se centra en este ámbito y planea organizar un panel sobre robots humanoides durante el GTC 2025. A medida que las plataformas Isaac Sim y Cosmos de NVIDIA avancen, varias empresas tendrán la oportunidad de crear robots humanoides, abriendo el camino para una competencia entre Optimus de Tesla y robots de startups como Figure AI o Apptronik que utilicen la tecnología de NVIDIA. Esto podría aumentar aún más la presión competitiva sobre Tesla en nuevos sectores.
En resumen, el GTC 2025 representará un desafío indirecto para Tesla. La capacidad de NVIDIA para proporcionar herramientas potentes en los ámbitos automotriz, de la robótica y de la infraestructura de IA podría permitir a los competidores acortar la brecha con Tesla. Aunque Tesla ha seguido tradicionalmente una estrategia independiente, el rápido avance de la competencia – reforzado por el apoyo de NVIDIA – podría obligar a Tesla a acelerar el desarrollo de sus propios chips y software o, si fuera necesario, a colaborar parcialmente con NVIDIA. A pesar de la fortaleza de Tesla en cuanto a integración vertical y recopilación de datos, los continuos avances de NVIDIA podrían, con el tiempo, remodelar el panorama competitivo del sector automotriz. Si, después del GTC 2025, los fabricantes de automóviles comienzan a creer que pueden lograr funcionalidades comparables al sistema FSD de Tesla utilizando chips de NVIDIA, esto podría limitar el dominio actual de Tesla. En última instancia, aunque Tesla y NVIDIA no colaboren directamente, sus acciones se influencian mutuamente de forma continua, y se espera que el GTC 2025 confirme esta dinámica.
Análisis de los Analistas de Wall Street y Precios Objetivo para NVIDIA(NVIDIA GTC)
¿Cómo ven los analistas de Wall Street a NVIDIA, la empresa que alcanzó alturas astronómicas durante el boom de la IA? Con el GTC 2025 en el horizonte, los grandes bancos de inversión son generalmente positivos respecto al liderazgo tecnológico y las perspectivas de beneficios de NVIDIA, aunque advierten que el fuerte ascenso del título requiere un enfoque estratégico. Una síntesis de varios informes analíticos describe a NVIDIA como “la opción número uno para la era de la IA,” con precios objetivo que indican un potencial de alza de dos dígitos en comparación con los niveles a comienzos de 2025.
- Wedbush Securities: Wedbush mantiene su posición de que NVIDIA es la acción de IA líder para 2025. Declararon: “La revolución de la IA es la mayor transformación tecnológica en 40 años, y sus orígenes se remontan a Jensen Huang,” y pronosticaron que los gastos de capital relacionados con la IA superarán los 2 billones de dólares en los próximos tres años. Esto subraya que NVIDIA está destinada a ser la mayor beneficiaria de este robusto ciclo de inversión en IA. Aunque no se especificó un precio objetivo, Wedbush continúa considerando a NVIDIA como la mejor opción para la IA en 2025.
- Morgan Stanley: Morgan Stanley otorgó a NVIDIA una calificación “Overweight” con un precio objetivo de 166 dólares, lo que representa un potencial de alza del 21% respecto a los niveles de comienzos de 2025. Explicaron que “en la segunda mitad de 2025, solo el éxito de Blackwell dominará el debate del mercado,” lo que sugiere que, a pesar de posibles problemas transitorios a corto plazo, la demanda subyacente es extremadamente fuerte. En otras palabras, incluso si se producen ajustes temporales, riesgos relacionados con China o cuestiones de valoración, el rendimiento de la serie Blackwell en la segunda mitad de 2025 disipará cualquier preocupación. Morgan Stanley también recordó cómo el título de NVIDIA se disparó después de que Jensen Huang describiera la demanda de Blackwell como “loca.”
- Citi: Citi prevé que la keynote de Jensen Huang en el CES 2025 actuará como catalizador a corto plazo para el título, otorgando una recomendación de compra con un precio objetivo de 175 dólares – lo que implica un potencial alza del 27% respecto a los niveles actuales. El analista Atif Malik de Citi declaró: “Con expectativas elevadas para las ventas de Blackwell durante el evento CES de enero, el título de NVIDIA está a punto de emprender un rally de dos dígitos,” y señaló que las conversaciones con la dirección durante las sesiones de preguntas y respuestas inmediatamente después del CES probablemente destacarán una mayor demanda para el nuevo chip y un aumento en los sectores de IA empresarial/robótica, lo que tendrá un impacto positivo en el título. Citi ya había elevado su precio objetivo basándose en estas señales positivas, y el rendimiento de la acción de NVIDIA en el CES 2025 confirmó estas expectativas.
- Bank of America (BofA): BofA mantiene su recomendación de compra para NVIDIA con un precio objetivo de 190 dólares, lo que representa un potencial alza del 39% respecto a los niveles actuales – uno de los pronósticos más altos entre los grandes bancos de inversión. Los analistas de BofA observaron que “la demanda por la GPU Hopper de NVIDIA es robusta, y se espera que la demanda por Blackwell supere la capacidad de producción de NVIDIA durante varios trimestres.” No obstante, también señalaron que en los últimos trimestres las expectativas de los inversores han sido mayores que las sorpresas reales, lo que llevó a ajustes tras la publicación de los resultados trimestrales. A pesar de ello, afirmaron que “mientras los fundamentos subyacentes se mantengan sólidos, existen razones suficientes para ser optimistas respecto al crecimiento a largo plazo de NVIDIA.” A pesar de la volatilidad a corto plazo, BofA está convencido de que NVIDIA será, en última instancia, el mayor beneficiario del boom de la IA, y recomienda aumentar la exposición al título en las carteras de inversión.
Además, la mayoría de los analistas de Goldman Sachs, JPMorgan, BofA y RBC continúan recomendando la compra de NVIDIA. Aunque algunas voces más conservadoras, como UBS, han advertido sobre posibles correcciones a corto plazo con una calificación neutral, la mayoría se centra en la capacidad disruptiva de los fundamentales de NVIDIA, haciendo que los analistas sean reacios a rebajar sus calificaciones. Según datos agregados por TipRanks, el precio objetivo medio para 2025 se sitúa alrededor de 178 dólares – lo que equivale a un potencial alza de aproximadamente el 40% respecto a los niveles de enero. Aunque algunos advierten que, tras casi triplicarse en 2024, el título podría necesitar “tomarse un respiro,” las sólidas perspectivas de crecimiento de beneficios de NVIDIA y la ausencia de un competidor claro hacen que los analistas no estén dispuestos a bajar sus evaluaciones. De hecho, algunos expertos en tecnología han proyectado incluso que la capitalización de mercado de NVIDIA podría alcanzar los 10 billones de dólares en 2030 (más de tres veces su valor actual), basándose en el escenario en que NVIDIA generará enormes ingresos no solo de los chips de IA, sino también de software y servicios.
Mientras tanto, tras la última previsión trimestral para el Q1 2025 (noviembre–enero 2024), Wall Street adoptó una postura temporalmente más cautelosa. Según Reuters, aunque las previsiones trimestrales de NVIDIA para principios de 2025 superaron las expectativas del mercado, una desaceleración respecto al trimestre anterior generó preocupaciones de que “el rally de IA de dos años podría estancarse.” Esto resultó en una caída del 8% en el título y en una pérdida de 500 mil millones de dólares en capitalización de mercado, con algunas voces expresando dudas sobre la sobrevaloración de las grandes acciones tecnológicas de los “Magnificent 7.” Sin embargo, estas reacciones se atribuyeron principalmente a la toma de beneficios a corto plazo y a preocupaciones macroeconómicas, y no han afectado significativamente la visión a largo plazo de los analistas. Al contrario, algunos ven estas correcciones como oportunidades de compra atractivas – Wedbush, por ejemplo, indicó que “aunque puedan surgir momentos de tensión en 2025, históricamente estos han sido momentos ideales para acumular acciones de tecnología esencial.” En definitiva, a pesar de la volatilidad a corto plazo, la tendencia a largo plazo, impulsada por el megatrend de la IA, se mantiene firme, y los analistas recomiendan conservar NVIDIA.
Estrategias de Inversión a Largo Plazo: Mantener NVIDIA vs. Vender Inmediatamente tras los Eventos(NVIDIA GTC)
Finalmente, analicemos cómo los inversores a largo plazo podrían aprovechar eventos como el GTC 2025. La pregunta central es: ¿es mejor mantener las acciones de NVIDIA a largo plazo o resulta más ventajoso tomar beneficios vendiendo inmediatamente después de un gran evento? La respuesta puede variar según el inversor, pero según el análisis y la situación actual del mercado, a continuación se presentan algunas consideraciones.
Ventajas de Mantener a Largo Plazo: Participar en una Historia de Crecimiento Monumental
La razón principal para mantener NVIDIA a largo plazo es que los fundamentos de la empresa aún se encuentran en una fase temprana de crecimiento. Aunque el boom de la IA generó enormes beneficios en 2023, la adopción de la IA apenas comienza. Como se ha mencionado, se espera que la adopción de la IA en todos los sectores aumente en los próximos años, con una demanda sostenida y excedente de chips de IA, que constituyen la infraestructura esencial para la IA. NVIDIA está en el centro de esta enorme tendencia de crecimiento estructural. Al poseer acciones de una empresa así en el largo plazo, los inversores pueden beneficiarse del efecto del interés compuesto. Históricamente, aquellos que mantuvieron NVIDIA durante más de una década obtuvieron rendimientos que multiplicaron su inversión inicial, a pesar de correcciones periódicas tras eventos, lo que resultó finalmente en una tendencia ascendente a largo plazo.
La ventaja competitiva de NVIDIA no proviene de la suerte, sino de su constante innovación y expansión. La empresa está preparada para aprovechar nuevas oportunidades de crecimiento en sectores como la conducción autónoma, los servicios de IA en la nube, el metaverso, la salud y la robótica. Este crecimiento multidimensional es extremadamente atractivo para los inversores a largo plazo. Incluso cuando un ciclo de producto termina, surgen nuevos mercados y los ingresos recurrentes por software y plataformas (como las licencias CUDA o un marketplace de modelos AI) aumentan progresivamente. Tal como lo demuestra la mención de un TAM de 1 billón de dólares por parte de NVIDIA, existe un mercado potencial que es varias veces mayor que los ingresos anuales actuales de la empresa (aproximadamente 40 mil millones de dólares). Aunque llevará tiempo materializar este potencial, los inversores a largo plazo pueden beneficiarse del aumento del valor que acompaña al crecimiento de la empresa.
Además, la dirección de NVIDIA – en particular Jensen Huang – es conocida por ser muy amigable con los accionistas. Huang es famoso por su visión a largo plazo y ya ha realizado splits accionarios (un split 4:1 en 2021 y un split 10:1 en 2024) para aumentar la liquidez y fomentar la participación de los inversores. La recuperación del título tras el split 10:1 en 2024 demuestra la fuerte trayectoria de crecimiento de la empresa. En este sentido, los inversores a largo plazo podrían beneficiarse más adoptando una mentalidad de “compra y mantén para siempre” en lugar de dejarse distraer por las oscilaciones a corto plazo.
La Tentación de Vender Inmediatamente Tras un Evento: Enfriar una Sobrevaloración Temporal
¿Qué pasa con la estrategia de vender inmediatamente después de un evento para obtener beneficios a corto plazo? Este método aprovecha el fenómeno “sell the news” mencionado anteriormente. Se han registrado casos en los que la acción de NVIDIA alcanzó un pico poco después de grandes eventos como el GTC o el CES, para luego corregirse, lo que llevó a algunos inversores a vender justo antes del evento y volver a comprar durante la caída. Por ejemplo, se podría haber vendido antes del GTC 2024 de marzo y luego recomprado tras una caída inmediata del 2%. Aunque en teoría esta estrategia suena ideal, en la práctica es extremadamente difícil cronometrarla con precisión debido a la imprevisibilidad de los eventos y las condiciones generales del mercado.
Si un inversor considera que la valoración actual de NVIDIA es demasiado alta, podría ser ventajoso tomar beneficios durante el rally impulsado por el evento. A comienzos del 2025, el ratio P/E prospectivo de NVIDIA rondaba los 40–50, muy por encima del promedio del mercado, por lo que, si esta alta valoración se percibe como un peso, reducir la posición en torno al periodo del GTC 2025 podría justificarse. Especialmente si los anuncios no cumplen las expectativas o si las noticias positivas ya están completamente descontadas, es probable que se produzca una corrección a corto plazo.
Los inversores a largo plazo también pueden considerar reequilibrar ligeramente su cartera. Si la posición en NVIDIA ha crecido demasiado debido al rally, podría ser prudente reducir la exposición después del evento para restablecer el equilibrio. Incluso si se tiene confianza en NVIDIA, pueden presentarse riesgos imprevistos (como una repentina caída de la demanda o problemas geopolíticos), por lo que es aconsejable seguir el principio de diversificación. Eventos como el GTC son momentos culminantes en un ciclo de producto y pueden representar oportunidades lógicas para reequilibrar la cartera.
Sin embargo, abandonar completamente el mercado y luego reinvertir es arriesgado. NVIDIA es conocida por su volatilidad y, en algunos casos, la acción puede continuar subiendo tras un evento. Si se produce una serie consecutiva de noticias positivas (como en el CES 2024), un inversor que vendió podría verse obligado a recomprar a un precio más alto. Operar con frecuencia en una acción fundamentalmente sólida con una tendencia ascendente a largo plazo puede erosionar los rendimientos. Como dijo Warren Buffett: “Si es una buena empresa, mantenla para siempre.” Si estás convencido de las perspectivas a largo plazo de NVIDIA, probablemente sea mejor no distraerte con los eventos a corto plazo.
Consideraciones Integrales y Perspectiva Futura
En definitiva, la decisión de mantener las acciones de NVIDIA a largo plazo o de vender al menos una parte de tu posición tras un gran evento dependerá de tus objetivos de inversión y de tu tolerancia al riesgo. Si tu objetivo es obtener ganancias máximas a corto plazo, podrías considerar operar en torno a la volatilidad que traerá el GTC 2025. Pero si tu objetivo es lograr ganancias significativas en 5 o 10 años, una corrección a corto plazo del 5–10% no debería impedirte mantener las acciones.
Muchos expertos aconsejan: “No evalúes la acción de NVIDIA únicamente desde una perspectiva a corto plazo.” El paradigma de la IA apenas comienza, y la capacidad de generación de ingresos de NVIDIA recién empieza a materializarse. Con posibles flujos de ingresos provenientes de suscripciones de software o servicios en la nube que complementen las ventas de hardware, hay margen para mejorar los márgenes y los múltiplos. Por ejemplo, los recientes anuncios de NVIDIA sobre una tienda de modelos de IA (NGC) y las iniciativas Omniverse basadas en la nube indican una orientación hacia el software como servicio, lo que podría conducir a una revaloración de la acción si estas iniciativas tienen éxito.
Por otro lado, existe el riesgo potencial de que el ciclo de inversión en IA se desacelere. Si los enormes pedidos observados en 2024–2025 alcanzan su pico y el crecimiento se estabiliza a partir de 2026, la acción de NVIDIA podría entrar en una fase correctiva o oscilar dentro de un rango. Existe un precedente histórico cuando el boom de la minería de criptomonedas colapsó entre 2018 y 2019, lo que provocó una caída del 50% en la acción de NVIDIA. Aunque el boom actual de la IA no es una moda pasajera, es posible que se repita el patrón de un crecimiento explosivo seguido de una corrección, antes de reanudar la tendencia alcista. En última instancia, la decisión de vender tras un evento dependerá de cuán sostenible se perciba el ciclo de crecimiento de la IA. Dado que la mayoría de los expertos ven la demanda de IA como una megatendencia que perdurará durante años, salir demasiado pronto podría no ser prudente.
En resumen: para los inversores a largo plazo, conviene mantener NVIDIA como un componente central de la cartera, considerando al mismo tiempo un ajuste moderado de la posición durante períodos de sobrevaloración. Eventos como el GTC 2025 ofrecen la oportunidad de evaluar la hoja de ruta futura de NVIDIA en lugar de actuar como eventos negativos que perjudiquen tu estrategia de inversión. Si los anuncios son contundentes, solo reforzarán tu confianza en el crecimiento a largo plazo de la empresa, y no hay motivo para reducir drásticamente tu posición basándote únicamente en las reacciones a corto plazo del mercado. Sin embargo, si la acción sube excesivamente durante varios días (por ejemplo, un aumento del 20%), podría ser prudente tomar algunos beneficios y luego volver a entrar en una caída subsecuente. Tales operaciones no deben comprometer tu posición fundamental a largo plazo en esta excelente empresa. Recuerda el lema constante de Jensen Huang: “No podemos ver todo, pero seguiremos innovando con todas nuestras fuerzas,” el cual ha recompensado a los inversores a lo largo del tiempo.
En conclusión: el GTC 2025 de NVIDIA está destinado a transformar nuevamente la industria de la IA con anuncios tecnológicos revolucionarios. Aunque las keynotes anteriores han provocado oscilaciones a corto plazo en el precio de la acción, su valor a largo plazo ha ido en aumento de manera constante. Las perspectivas del mercado GPU indican que la dominancia de NVIDIA probablemente se mantendrá, y en sus relaciones de colaboración y competencia con socios clave, NVIDIA está muy bien posicionada. Los analistas de Wall Street tienen una gran confianza en las perspectivas de crecimiento futuro de NVIDIA y señalan un potencial alcista adicional con sus precios objetivo. Todo ello indica que NVIDIA sigue siendo una inversión atractiva para los inversores a largo plazo, y que es preferible adoptar una visión a largo plazo en lugar de dejarse influir por eventos a corto plazo. Dada la volatilidad intrínseca de la acción, es prudente mantenerse flexible y seguir tus propios principios de gestión del riesgo. No existe una respuesta universal a “¿Cuándo vender NVIDIA?”, pero las tendencias históricas sugieren que “mantener la acción el mayor tiempo posible” ha sido la estrategia más rentable.
🔗 El futuro de la AGI y las empresas más prometedoras
- NVIDIA GTC 2025
- Jensen Huang Keynote
- Arquitectura Blackwell (GPU Blackwell)
- Aceleradores de Data Center AI
- Tecnología de Conducción Autónoma (DRIVE Thor)
- Cosmos Physical AI
- Volatilidad de la Acción de NVIDIA
- Precio Objetivo y Perspectivas de los Analistas
- AMD MI300 vs. NVIDIA
- Intel Habana Gaudi / Falcon Shores
- Estrategia Google TPU
- Microsoft Azure Maia
- Estrategia OpenAI (Proyecto Stargate)
- Tesla Dojo Supercomputer
- Inversiones a Largo Plazo vs. Trading a Corto Plazo