
Revolución de la IA Generativa: El Impacto en las Acciones de NVIDIA y TSMC
GPT-5 y Groq-4: Un Año Después del Lanzamiento – Impacto en los Ingresos y la Capitalización de Mercado de NVIDIA y TSMC
Aumento en la Venta de Semiconductores para IA:
Tras la explosiva demanda de chips para centros de datos durante la era de GPT-4, el segmento de centros de datos de NVIDIA experimentó un crecimiento del 112% respecto al año anterior, alcanzando unos ingresos trimestrales de 30,77 mil millones de dólares. Este ingreso representa más de la mitad de los ingresos totales, impulsado por las inversiones de los proveedores de servicios en la nube en modelos de gran escala, lo que ha generado un crecimiento de tres cifras durante dos trimestres consecutivos.
Al mismo tiempo, TSMC ha aprovechado el auge en la fabricación de chips para IA: los ingresos de sus plataformas HPC (High Performance Computing) han aumentado un 58% respecto al año anterior, constituyendo ahora el 51% de los ingresos anuales previstos para 2024. El CEO de TSMC declaró que “los ingresos derivados de los aceleradores de IA en 2024 se han triplicado y se espera que aumenten más del doble en 2025.”
La introducción de GPT-5 estimulará aún más la demanda para el entrenamiento y la inferencia de modelos de IA, potenciando este efecto multiplicador en los ingresos. Por ejemplo, se informa que OpenAI utilizó alrededor de 25.000 GPU NVIDIA A100 para entrenar GPT-5, lo que probablemente conducirá a compras masivas de GPU e inversiones significativas en centros de datos.
Además, en el tercer trimestre de 2024, el gasto de capital global (CapEx) en centros de datos de empresas hyperscale aumentó un 82%, debido a la inversión clave en infraestructuras de IA.
Incremento en la Capitalización de Mercado:
Desde la introducción de GPT-4, que desencadenó una demanda explosiva de semiconductores para IA, tanto NVIDIA como TSMC han visto crecer notablemente su capitalización de mercado. NVIDIA pasó de una capitalización de 1,2 billones de dólares a finales de 2023 a 3,28 billones de dólares a finales de 2024 – un incremento de más de 2 billones de dólares en tan solo un año – situándose como la segunda mayor a nivel mundial. En octubre de 2024, NVIDIA incluso superó temporalmente a Apple, llegando a ser la empresa más valiosa del mundo por un breve período.
Por su parte, TSMC también se benefició del auge de la IA; en octubre de 2024, su capitalización de mercado alcanzó aproximadamente 833 mil millones de dólares, con un aumento en el precio de sus acciones de más del 90% durante el año. TSMC se ha consolidado como socio exclusivo en la fabricación de chips avanzados para empresas líderes como NVIDIA y AMD, y el aumento en la demanda de IA se refleja de inmediato en sus resultados y en su capitalización de mercado.
Un año después del lanzamiento de GPT-5 y Groq-4, se espera que la proporción de ingresos de los centros de datos de NVIDIA siga aumentando (actualmente superior al 50%), mientras que la proporción de chips HPC/IA de TSMC también se expanda, reforzando la solidez financiera de ambas compañías. Es especialmente relevante que el 74% de los ingresos de TSMC provenga de procesos avanzados de 7nm o menos, lo que le permite beneficiarse directamente de la era de la IA.
Expansión de Servidores e Infraestructura:
La llegada de modelos hiperescalares como GPT-5 ha intensificado la competencia entre los principales proveedores de servicios en la nube para ampliar sus centros de datos. En 2024, las grandes empresas tecnológicas invirtieron aproximadamente 236 mil millones de dólares en nuevas infraestructuras – un aumento superior al 50% respecto al año anterior – y compañías como AWS y Google planean invertir cientos de miles de millones de dólares en la expansión de infraestructuras de IA durante los próximos años.
De hecho, en el tercer trimestre de 2024, el 40% del CapEx global en centros de datos se destinó a infraestructuras de IA (servidores acelerados). Los servidores de IA basados en GPU de NVIDIA representan ya hasta el 40% de las ventas OEM de servidores, y la demanda de servidores específicos para entrenamiento de IA compensa la desaceleración en el mercado de servidores tradicionales, impulsando un crecimiento de dos dígitos.
Un año después del lanzamiento de GPT-5, se espera que los principales proveedores cloud implementen centros de datos equipados con clusters de GPU H100/H200 y aceleradores Groq, mientras las empresas amplían su adopción de IA, lo que llevará a un crecimiento anual de la demanda de chips para IA de 30–40% o más.
Resumen:
En la era de GPT-5 y Groq-4, NVIDIA y TSMC experimentarán resultados extraordinarios específicos para la IA y un significativo aumento en su capitalización de mercado, superando las expectativas de los inversores.
GPT-6 y Groq-5: Un Año Después del Lanzamiento – Perspectivas de Mejora en el Rendimiento y Crecimiento del Mercado
Mejora en la Potencia de Cómputo de GPT-6:
Se espera que GPT-6 cuente con una capacidad de cómputo e inteligencia notablemente superior a la de las generaciones anteriores. Mientras que se estima que GPT-5 requiere alrededor de 1,7×10^26 FLOPs (operaciones en coma flotante) para su entrenamiento, GPT-6 podría demandar aún mayores recursos computacionales o mejorar la eficiencia mediante la optimización de su arquitectura. OpenAI ha enfatizado anteriormente que “cuanto más inteligente es un modelo, más crucial es disponer de datos de alta calidad y una inferencia optimizada”, lo que indica que GPT-6 se centrará en potenciar la eficiencia.
Con el incremento en el número de parámetros y en las capacidades multimodales, GPT-6 exigirá una potencia de cómputo mucho mayor que la de GPT-5. Para satisfacer esta demanda, NVIDIA introducirá su nueva arquitectura GPU (sucesora de Blackwell), que mejorará tanto la velocidad de procesamiento como la eficiencia energética. Paralelamente, el acelerador Groq-5 evolucionará la arquitectura LPU, ofreciendo una latencia ultrabaja y una elevada eficiencia energética. Actualmente, la Groq LPU ha demostrado generar 241 tokens por segundo en el benchmark Meta Llama2-70B, superando en más del doble la velocidad de GPU comparables y alcanzando una eficiencia energética 10 veces superior.
Comparativa entre Potencia de Cómputo y Eficiencia Energética:
Al comparar la próxima generación de GPU NVIDIA con la Groq-5, resulta evidente que, si bien las GPU mantienen su ventaja en versatilidad, los chips especializados como la LPU serán probablemente superiores en términos de eficiencia energética. Groq afirma que su LPU es “al menos 10 veces más eficiente energéticamente” que las GPU tradicionales. La GroqCard consume solo 1–3 Joule por token, en contraste con los 10–30 Joule que consumen las GPU de NVIDIA. En la era de GPT-6, la eficiencia energética por vatio (Watt/Token) se convertirá en un indicador crucial, dada la limitación de energía en los centros de datos. En la práctica, se espera que las GPU se utilicen principalmente para el entrenamiento, mientras que los sistemas basados en LPU se emplearán para la inferencia en tiempo real.
Perspectivas del Mercado para la Próxima Generación de Aceleradores de IA:
La introducción de GPT-6 y Groq-5 impulsará un crecimiento exponencial en el mercado de aceleradores de IA. Solo en 2024, se estima que el mercado global de chips y tecnologías aceleradoras para IA alcance aproximadamente 11 mil millones de dólares, con un crecimiento previsto que supere los 130 mil millones de dólares anuales en 2030 – un aumento de más de diez veces. Se espera que NVIDIA mantenga una cuota de mercado del 74% en este segmento, mientras que Mizho Securities proyecta que los ingresos relacionados con la IA de NVIDIA alcanzarán los 259 mil millones de dólares en 2027, más de cuatro veces los niveles actuales.
Este crecimiento estará impulsado principalmente por la adopción masiva de la tecnología GPT-6, que llevará a las empresas no solo a expandir sus centros de datos, sino también a construir clusters internos de GPU y aceleradores de IA. Paralelamente, el desarrollo de ASICs de IA personalizados (como el Google TPU y el AWS Inferentia) se acelerará, lo que podría debilitar parcialmente la posición dominante de NVIDIA. Sin embargo, TSMC seguirá beneficiándose de los pedidos para estos chips personalizados.
La colaboración estrecha entre NVIDIA y TSMC se mantiene sólida: se prevé que la capitalización de mercado de NVIDIA se acerque a los 3,6 billones de dólares a finales de 2024 (siendo la segunda a nivel mundial), mientras TSMC batirá nuevos récords trimestrales gracias al aumento de la demanda en el sector HPC.
Análisis de la Demanda de GPU y la Expansión de Centros de Datos para el Desarrollo de la AGI
Comparación de Requisitos Computacionales: AGI versus Modelos Actuales:
La Inteligencia Artificial General (AGI) debe ser capaz de ejecutar una amplia gama de tareas al nivel humano, lo que implica que requerirá una potencia de cómputo exponencialmente mayor que la de los modelos actuales como GPT-4 o GPT-5, que ya consumen entre 10^25 y 10^26 FLOPs durante el entrenamiento. Algunos inversores prevén que, para 2026, se venderán GPU capaces de entrenar 1.000 modelos a nivel de GPT-5 – basándose en la cifra de 1,7×10^26 FLOPs por modelo. Dado que la AGI es mucho más compleja, los costes de entrenamiento podrían alcanzar decenas de miles de millones de dólares. Morgan Stanley ha estimado que el entrenamiento de GPT-5 requirió aproximadamente 225 millones de dólares en GPU NVIDIA A100 (alrededor de 25.000 unidades), y que la implementación de la AGI necesitará recursos computacionales múltiples en comparación. Algunas previsiones incluso sugieren que, para lograr la AGI antes de 2030, se requerirán inversiones por 1 billón de dólares y el consumo del 20% de la energía eléctrica en Estados Unidos, lo que indica que las GPU H100/H200 actuales no serían suficientes.
Número de GPU Necesarias y Escala de la Infraestructura:
Para desarrollar y operar la AGI se necesitarán clusters de GPU y una infraestructura de centros de datos a una escala mucho mayor que la de los sistemas de entrenamiento de IA actuales. Los clusters de entrenamiento de IA más grandes de hoy en día consisten en decenas de miles de GPU (por ejemplo, los supercomputadores de Microsoft y OpenAI que utilizan decenas de miles de GPU A100), pero para la AGI podrían requerirse cientos de miles o incluso millones de GPU de alto rendimiento conectadas en paralelo, creando supercomputadores de dimensiones sin precedentes. Los costos iniciales de inversión podrían alcanzar la escala de billones de dólares, con enormes gastos en la construcción de centros de datos, sistemas de refrigeración e infraestructura de suministro eléctrico.
Mustafa Suleyman, responsable de IA en Microsoft, afirmó que “el hardware de la generación actual (como la GPU NVIDIA Blackwell GB200) no es suficiente para alcanzar la AGI; se necesitarán entre 2 y 5 nuevas generaciones de innovaciones en hardware”, lo que implica que en los próximos 5 a 10 años será esencial un avance tecnológico significativo y un aumento sustancial en la producción de chips. En el tercer trimestre de 2024, el CapEx de los centros de datos hyperscale en Estados Unidos aumentó un 82%, con una porción considerable destinada a servidores acelerados. Durante la fase de desarrollo de la AGI, estas inversiones podrían expandirse aún más, lo que podría llevar a la construcción y operación simultánea de múltiples centros de datos exascale para un solo proyecto.
Consumo Energético y Requisitos de Infraestructura Física:
Para ejecutar de forma continua las tareas computacionales que demanda la AGI, será inevitable un consumo energético enorme. Incluso los modelos actuales, como GPT-4, consumen cantidades significativas de energía durante la inferencia, y se espera que la AGI requiera un consumo comparable al de los supercomputadores. Según algunos informes, para 2030 la IA y la superinteligencia podrían absorber hasta el 20% del consumo eléctrico total de Estados Unidos – una cifra que equivale a cientos de TWh, suficiente para cubrir el consumo de millones de hogares.
Por ello, los centros de datos destinados a la AGI no solo deberán albergar un gran número de GPU, sino que también será fundamental contar con una red eléctrica robusta y una infraestructura diseñada para maximizar la eficiencia energética. Tecnologías de vanguardia como los procesos de semiconductores de nueva generación (3nm → 2nm → 1nm), sistemas de refrigeración líquida, diseños modulares de centros de datos y otras innovaciones tecnológicas jugarán un papel crucial. NVIDIA ya ha introducido racks para GPU con refrigeración líquida y soluciones para mejorar el PUE (Power Usage Efficiency). Para albergar decenas de miles de GPU, un centro de datos dedicado a la AGI podría requerir una superficie equivalente a la de varios campos de fútbol y sistemas eléctricos a gran escala, similares a subestaciones de transformadores.
En resumen, para alcanzar la AGI se necesitará una inversión en hardware e infraestructura al menos 10 veces mayor que la de los sistemas actuales GPT-4/5, lo que representa un desafío enorme tanto para los proveedores de GPU como NVIDIA y los fabricantes como TSMC, así como para los sectores energético y de la construcción.
Perspectivas de los Principales Actores: Broadcom, SK Hynix y Samsung Electronics – El Futuro de los Semiconductores para IA y Centros de Datos
Broadcom:
Broadcom ha sido durante mucho tiempo un líder en el sector de chips personalizados para centros de datos y ha consolidado aún más su posición durante el auge de la IA. Tras colaborar en el desarrollo del Google TPU (a partir del TPU v1 en 2016), los ingresos relacionados con Google de Broadcom se dispararon, pasando de 50 millones de dólares en 2015 a 750 millones de dólares en 2020.
La empresa suministra ASICs de IA personalizados a grandes proveedores de servicios en la nube como AWS y Microsoft, y también ofrece chips de red (switches, routers, NIC) para centros de datos de IA. En el primer trimestre de 2024, los ingresos en semiconductores de Broadcom alcanzaron 7,39 mil millones de dólares, de los cuales 3,3 mil millones de dólares (con un incremento del 46% interanual) provinieron del segmento de redes, y los ingresos de AI-ASIC y soluciones de red totalizaron 2,3 mil millones de dólares, representando el 31% del total – un crecimiento de cuatro veces respecto al año anterior. Broadcom prevé que en 2024 la proporción de ingresos relacionados con la IA supere el 35%, llevando a unos ingresos anuales en IA superiores a 10 mil millones de dólares.
SK Hynix:
SK Hynix se posiciona como uno de los mayores beneficiarios del auge de la IA, consolidándose como líder en el mercado de HBM (High Bandwidth Memory). En 2024, los ingresos de SK Hynix alcanzaron 66,2 billones de won (aproximadamente 46,3 mil millones de dólares), registrando un incremento del 102% respecto al año anterior, y un beneficio operativo de 23,5 billones de won, lo que representa un margen operativo del 35%.
Gracias al incremento en la demanda de DRAM para aplicaciones de IA, SK Hynix pasó de registrar pérdidas en 2023 a obtener importantes beneficios en 2024, con los ingresos por HBM representando más del 40% del total de ventas de DRAM. La empresa suministra HBM3, por ejemplo, a los chips NVIDIA H100, asegurando una cuota de mercado del 50% en el sector HBM, y la capacidad de producción para 2024–2025 ya está completamente reservada. La dirección prevé que, con el continuo crecimiento de la demanda de memoria para IA, los ingresos por HBM se duplicarán.
Samsung Electronics:
Samsung Electronics se prepara para la era de la IA tanto en el sector de la memoria como en el de la foundry. En el ámbito de la memoria, Samsung ha acelerado la producción en masa de HBM3/3E para suministrar a clientes clave como NVIDIA y ha desarrollado la primera solución de HBM3E de 12 capas, con la perspectiva de que se integre en las próximas generaciones de GPU de NVIDIA.
Aunque la cuota de mercado de Samsung es algo inferior a la de SK Hynix (se estima un 42% de cuota en el mercado de HBM para 2024), Samsung apuesta por recuperar el liderazgo mediante inversiones agresivas en I+D para desarrollar HBM4 de 16 capas.
En el sector de la foundry, para competir con TSMC, Samsung introdujo el proceso 3nm GAA, aunque inicialmente enfrentó problemas de rendimiento; sin embargo, tras la estabilización de sus procesos, Samsung ha anunciado que iniciará la producción en masa del proceso 2nm en la segunda mitad de 2025, y que comenzará a producir 2nm en su planta de Texas en 2026, ampliando así su capacidad de producción global.
Además, Samsung se está preparando para la era del 1nm (o 1,4nm) adoptando soluciones de proceso de vanguardia, mientras que TSMC planea lanzar un nodo de 1,6nm (una versión mejorada del 2nm) en 2026. Actualmente, Samsung se encuentra ligeramente rezagado tecnológicamente respecto a TSMC, pero mediante inversiones masivas y tecnologías innovadoras, existe potencial para cerrar esa brecha.
TSMC vs Samsung Electronics: Perspectivas en la Fabricación de Semiconductores para la AGI (1nm vs. 2nm)
Procesos Óptimos para la AGI:
Para desarrollar chips destinados a la AGI es esencial utilizar los procesos semiconductores más avanzados que permitan maximizar la densidad de integración y optimizar la eficiencia energética. Según las hojas de ruta actuales, se prevé que un proceso a 2nm con tecnología gate-all-around (GAA) entre en producción masiva alrededor de 2025–2026, seguido por un proceso 1.x nm (con una longitud de gate inferior a 10Å) previsto para 2027–2028.
El término “proceso a 1nm” engloba en realidad variantes mejoradas del proceso a 2nm, como 1,4nm y 1,2nm. Por ejemplo, TSMC planea introducir un nodo de 1,6nm (N1.6) alrededor de 2026, mientras que Samsung apunta a producir en masa un proceso a 1,4nm en 2027.
Desde el punto de vista del diseño de chips, un proceso a 1nm permitiría una densidad de transistores mucho mayor que la de 2nm, lo que incrementaría notablemente la capacidad de cálculo en paralelo y reduciría el consumo energético en un 20–30% para igual rendimiento. Tanto TSMC como Samsung se han propuesto lograr mejoras de aproximadamente 10–15% en velocidad y 25–30% en eficiencia energética al pasar a 2nm, lo que hace que el proceso a 1nm sea un elemento clave para la implementación de hardware AGI eficiente y rentable.
Desarrollo y Viabilidad del Proceso a 1nm:
La investigación sobre nodos inferiores a 1nm ya está en marcha, y los principales foundry apuntan a la producción en masa en la segunda mitad de la década de 2020. TSMC anunció recientemente su intención de producir chips con una integración de hasta 1 billón de transistores para 2030, mientras que la hoja de ruta de IMEC en Bélgica indica que ya se están investigando nodos de 0,7nm y 0,5nm.
Aunque los desafíos técnicos son significativos, así como la transición de 5nm a 3nm se superó mediante nuevos materiales (como nanosheets y materiales 2D) y tecnologías de proceso innovadoras (como la litografía high-NA EUV), se espera que el proceso a 1nm se logre mediante innovaciones similares – por ejemplo, mediante la ampliación de la tecnología GAA-FET o la adopción de estructuras avanzadas de transistores como MBCFET.
Posibilidad de que Samsung Cierre la Brecha Tecnológica con TSMC:
Históricamente, Samsung ha tenido un retraso tecnológico de alrededor de 12 años respecto a TSMC, pero con la adopción de la tecnología 3nm GAA esa brecha se está reduciendo progresivamente, aunque TSMC aún mantiene una ligera ventaja. Durante 2022–2023, Samsung perdió una parte considerable de pedidos de Qualcomm y NVIDIA debido a problemas iniciales con los procesos a 4nm/3nm, mientras TSMC, con una producción estable a 3nm, logró consolidar la confianza de clientes clave, suministrando con éxito chips para el iPhone 16 Pro.
Para la generación a 2nm, sin embargo, las perspectivas podrían cambiar: a medida que aumentan las probabilidades de que Qualcomm encomiende a Samsung la producción de sus chips Snapdragon a 2nm previstos para 2025–2026, Samsung podrá acumular experiencia valiosa y fortalecer su competitividad para avanzar hacia el nodo a 1,4nm. Además, las políticas de fomento a las foundry promovidas por Estados Unidos y la Unión Europea crearán un entorno favorable para Samsung.
Técnicamente, el proceso a 2nm de TSMC representa el primer cambio de la tecnología FinFET a la tecnología basada en nanosheets GAA, mientras que el proceso a 2nm de Samsung se basa en la experiencia adquirida con el 3nm. Algunos análisis sugieren que el proceso a 2nm de TSMC ofrecerá una mejora en eficiencia energética del 30% en comparación con una mejora del 25% prevista para Samsung, aunque estos son objetivos iniciales y el rendimiento final se definirá en una competencia intensa. En la era de 1nm, ambas compañías se adentrarán en territorios inexplorados, lo que brindará a Samsung la oportunidad de cerrar completamente la brecha tecnológica.
Desde el punto de vista de los inversores, la reducción de la brecha tecnológica implicaría una mayor rentabilidad y un potencial incremento en la capitalización de mercado para Samsung, aunque también representaría un reto para el liderazgo tecnológico de TSMC. En definitiva, en la era AGI a 1nm es probable que ambas compañías consigan posicionarse exitosamente, manteniendo una competencia equilibrada a medio y largo plazo, lo que favorecerá la estabilidad de la capacidad productiva de chips avanzados para IA.
🔎 Palabras clave SEO: GPT-5, GPT-6, Groq-4, Groq-5, NVIDIA, TSMC, semiconductores para IA, capitalización de mercado, centros de datos, HBM, 2nm, 1nm, AGI
💡 Resumen:
La adopción de las tecnologías GPT-5/6 y los innovadores aceleradores Groq están impulsando de forma explosiva la demanda de chips para centros de datos destinados a la IA. Gracias a este impulso, NVIDIA experimentó en 2024 un aumento de ingresos por chips de IA de 1 a 3 billones de dólares, mientras TSMC registró un crecimiento del 58% en ingresos HPC y un alza en el precio de sus acciones superior al 90%. Para alcanzar la AGI se requerirán hasta 10 veces más GPU y centros de datos de dimensiones enormes, respaldados por infraestructuras avanzadas en energía y refrigeración. Al mismo tiempo, líderes del sector como Broadcom (ASICs de IA personalizados y soluciones de red), SK Hynix (memorias HBM) y Samsung Electronics (tecnologías foundry de vanguardia) están experimentando un crecimiento significativo en ingresos y rentabilidad. La competencia entre TSMC y Samsung en el ámbito de las tecnologías de 2nm/1nm será decisiva para el futuro de la AGI y del mercado de semiconductores para IA, que se prevé crezca a tasas anuales superiores al 2030%.