
NVIDIA Blackwell lidera el proyecto Stargate: Una nueva era de innovación en IA
Introducción: La emergencia de un nuevo paradigma en IA
La última arquitectura de chips de IA de NVIDIA, Blackwell, ha sido elegida como el motor central para el proyecto de infraestructura de IA a ultraescala, Stargate. Este revolucionario proyecto, impulsado por inversiones que suman 500 mil millones de dólares (aproximadamente 720 billones de KRW) por parte de OpenAI, Oracle, SoftBank y la firma de inversión en IA de Abu Dhabi, MGX, tiene como objetivo construir enormes campus de centros de datos en los Estados Unidos durante los próximos cuatro años. En el corazón de esta infraestructura se encuentra la GPU GB200 basada en NVIDIA Blackwell. Blackwell es aclamada como un cambio radical en el entrenamiento y la inferencia de IA, ofreciendo hasta una mejora de cinco veces en el rendimiento computacional de la IA y una expansión revolucionaria de la memoria en comparación con generaciones anteriores. Mientras tanto, tras el fenómeno ChatGPT en 2023, la demanda de modelos de IA ultragrandes se disparó a nivel mundial, lo que llevó a las infraestructuras globales de la nube a enfrentar una escasez de recursos computacionales para IA. Para abordar este desafío y reforzar la supremacía de la IA, OpenAI y sus empresas asociadas han iniciado inversiones masivas, lanzando proyectos como Stargate. NVIDIA, al satisfacer esta enorme demanda con su arquitectura Blackwell, está desempeñando un papel fundamental en la innovación en IA. Este artículo ofrece un análisis en profundidad de las características de la arquitectura NVIDIA Blackwell, la escala y la importancia del proyecto Stargate, y las transformaciones del mercado global que está a punto de desencadenar.
Para obtener más información sobre los últimos anuncios de GTC de NVIDIA, consulta nuestro artículo detallado sobre NVIDIA GTC.
NVIDIA Blackwell: La potencia de los chips de IA de nueva generación
Revelada en 2024, Blackwell de NVIDIA es la última arquitectura de GPU para IA que presume un rendimiento líder en la industria y una innovación tecnológica. Basándose en los avances de generaciones anteriores como Volta, Ampere y Hopper, Blackwell representa la quinta generación de chips de IA.
En marzo de 2024, durante el discurso principal del GTC, el CEO de NVIDIA, Jensen Huang, presentó la nueva GPU Blackwell (a la izquierda) junto a la GPU Hopper de la generación anterior (a la derecha).
Entre la serie Blackwell, la GPU B200 de gama alta se destaca como el chip más grande hasta la fecha, compuesto por más de 20,8 mil millones de transistores. Cuenta con un diseño innovador que unifica dos chiplets masivos en una única unidad operativa. Como resultado, la B200 Blackwell alcanza unos impresionantes 20 petaflops (PFLOPs) de rendimiento computacional en IA en un solo chip, optimizada para cargas de trabajo de IA de vanguardia, como los grandes modelos de lenguaje (LLM), gracias a sus Tensor Cores de sexta generación y Transformer Engines de segunda generación. Además, cada GPU B200 está equipada con 192GB de memoria HBM3E ultra rápida, cuadruplicando la capacidad de memoria de sus predecesoras y proporcionando un ancho de banda de 8TB/s para gestionar enormes conjuntos de datos en tiempo real.
Una característica particularmente notable de la arquitectura Blackwell es su soporte para la interconexión NVLink de próxima generación. Con NVLink de quinta generación, decenas de GPUs dentro de un solo servidor pueden agruparse para funcionar como una única GPU gigantesca. Empleando switches NVLink dedicados, es posible conectar hasta 576 GPUs a velocidades ultra altas, formando un dominio de cómputo enorme. Estructuras como NVL72, implementadas en sistemas basados en Blackwell, pueden combinar 72 GPUs en un solo nodo, permitiendo inferencias en tiempo real en modelos con más de un billón de parámetros. Gracias a esta escalabilidad, el uso de GPUs Blackwell permite la construcción de supercomputadoras de IA a una escala mucho mayor que antes, al mismo tiempo que se minimizan los cuellos de botella en la transferencia de datos entre GPUs para maximizar la eficiencia del entrenamiento.
Además, NVIDIA ha introducido un módulo integrado —el Superchip GB200— que conecta directamente la GPU Blackwell con la CPU de servidor de NVIDIA, Grace, a través de enlaces de alta velocidad. El módulo GB200 empaqueta dos GPUs B200 con una CPU Grace conectada mediante NVLink, facilitando el movimiento de datos entre la CPU y la GPU mucho más rápidamente que mediante PCIe y reduciendo los cuellos de botella durante el entrenamiento distribuido a gran escala. La CPU Grace, basada en la arquitectura ARM, está diseñada para un acceso a memoria de alta banda ancha y está optimizada para trabajar en conjunto con las GPUs de NVIDIA, aprovechando la tecnología comprobada en el Superchip GH200 (Grace-Hopper). En resumen, la arquitectura Blackwell eleva no solo el rendimiento del hardware, sino también la eficiencia general de la arquitectura del sistema, llevando la escalabilidad de la infraestructura de IA a un nuevo nivel.
Características Técnicas Clave del Blackwell B200/GB200:
- Estructura de chiplets ultra grandes: Una GPU compuesta por 20,8 mil millones de transistores distribuidos en dos chiplets, el chip más grande disponible.
- Capacidad de memoria masiva: Equipada con 192GB de memoria HBM3E que ofrece un ancho de banda de 8TB/s para gestionar grandes cantidades de datos en tiempo real.
- Rendimiento computacional exponencial: Alcanza 20 PFLOPs en cálculos de IA, optimizada para LLMs con soporte para operaciones FP4/FP8 de precisión ultra baja.
- Arquitectura escalable: Utiliza NVLink de quinta generación para conectar hasta 576 GPUs, con configuraciones como NVL72 que soportan clusters masivos.
- Integración CPU-GPU: La configuración del Superchip GB200 con CPU Grace minimiza los cuellos de botella entre la CPU y la GPU.
- Fiabilidad y seguridad: Mejoradas mediante motores RAS dedicados y tecnología de Confidential Computing.
Gracias a estas especificaciones impresionantes, la GPU Blackwell ha captado la atención del mercado inmediatamente tras su lanzamiento, impulsando un crecimiento récord en los ingresos del Data Center de NVIDIA. De hecho, NVIDIA logró un aumento interanual del 142% en los ingresos del Data Center para el año fiscal 2025, alcanzando los 115,2 mil millones de dólares, y solo las ventas de los nuevos chips Blackwell representaron 11 mil millones de dólares en el cuarto trimestre de 2025 (octubre-diciembre), siendo el crecimiento de ventas del producto más rápido en la historia de la compañía. La CFO de NVIDIA, Colette Kress, declaró: “Blackwell está siendo adoptada a un ritmo y escala sin precedentes en nuestra historia, y con su integración, la construcción de clusters de 100,000 GPUs pronto se volverá algo común.” Así, la llegada de Blackwell se posiciona como un cambio revolucionario que transformará rápidamente la industria del cómputo en IA.
El Proyecto Stargate: El amanecer de la infraestructura de IA a ultraescala
Anunciado en enero de 2025, el proyecto Stargate es una iniciativa de centros de datos de IA a ultraescala diseñada para satisfacer la explosiva demanda de capacidad computacional de IA de OpenAI. Lanzado como una empresa conjunta por el presidente de SoftBank, Son Jeong-ui, OpenAI, Oracle y la firma de inversión MGX de Abu Dhabi —con SoftBank proporcionando el respaldo financiero y OpenAI liderando las operaciones— este proyecto es sin precedentes en cuanto a escala, con una inversión total de 500 mil millones de dólares. Inmediatamente tras el anuncio, se inyectaron inicialmente 100 mil millones de dólares, lo que desencadenó la construcción del primer campus de centros de datos. El gobierno de los Estados Unidos también ha tomado nota; durante un evento en la Casa Blanca, el presidente Donald Trump declaró: “Construiremos el sistema de IA más poderoso del mundo en América,” expresando su total apoyo a Stargate. Esta inversión estratégica tiene como objetivo superar a naciones competidoras, como China, en la carrera armamentista de la IA.
El primer campus de centros de datos del proyecto Stargate se encuentra en Abilene, Texas, con la preparación del sitio y la construcción ya en marcha desde la segunda mitad de 2024. Los informes indican que este campus eventualmente contará con entre 10 y 20 edificios individuales de centros de datos, construidos en fases, convirtiéndolo en el centro de supercomputación de IA más grande del mundo una vez completado. Larry Ellison, presidente de Oracle, mencionó en el sitio que “ya se están construyendo diez centros de datos,” mientras que, según se informa, OpenAI está evaluando sitios adicionales en 16 estados de EE. UU. Cada campus está planificado como una instalación masiva que consume gigavatios (GW) de energía; con solo 5 a 10 campus, se establecerá una infraestructura de cómputo colosal que abarque varios GW.
La singularidad del proyecto Stargate radica no solo en la escala física de sus centros de datos, sino también en el nivel cualitativo de la potencia computacional de IA que albergarán. OpenAI y sus socios planean invertir las mejores capacidades de cómputo en IA del mundo en esta enorme infraestructura, que se utilizará para entrenar y servir modelos GPT de nueva generación. Con ese fin, se desplegarán decenas de miles de GPUs NVIDIA Blackwell GB200 en los centros de datos Stargate. Las investigaciones de mercado sugieren que la instalación de la primera fase en Abilene, Texas, tendrá aproximadamente 64,000 chips NVIDIA GB200 instalados y operativos para finales de 2026. Considerando que una sola GPU Blackwell cuesta entre 30,000 y 40,000 dólares (aproximadamente 40–50 millones de KRW), se estima que el costo del hardware para las GPUs en una instalación asciende a billones de KRW. Teniendo en cuenta futuras expansiones de campus y desarrollos adicionales de sitios, se prevé que el proyecto Stargate se convierta en la mayor infraestructura global de cómputo en IA, con cientos de miles de GPUs desplegadas. Los vastos recursos de cómputo apoyarán principalmente el entrenamiento e inferencia de los modelos de OpenAI y también podrían ponerse a disposición de empresas externas o instituciones de investigación a través de los servicios en la nube de Oracle. Dado que NVIDIA y Oracle, ambas con una amplia experiencia en la operación de clusters masivos de GPUs, gestionarán esta infraestructura, se espera una alta fiabilidad en el funcionamiento y aprovechamiento de un sistema de tan ultraescala.
¿Por qué el Proyecto Stargate está desplegando la NVIDIA Blackwell GB200 a gran escala?
¿Por qué eligió el proyecto Stargate desplegar la GB200 basada en NVIDIA Blackwell a tal escala? La respuesta radica en la capacidad de Blackwell para proporcionar la plataforma de hardware de IA más potente y escalable actualmente disponible. Los modelos de nueva generación de OpenAI consisten en cientos de miles de millones hasta billones de parámetros, lo que requiere GPUs capaces de procesar cargas computacionales enormes. Como se mencionó anteriormente, la B200/GB200 de Blackwell logra hasta un incremento de rendimiento de cinco veces respecto a la generación anterior Hopper (H100), con una capacidad de memoria de la GPU cuadruplicada, lo que facilita la carga de modelos grandes completos en la memoria de la GPU. Esto se traduce en la capacidad de entrenar lotes más grandes y modelos más profundos de manera eficiente, mejorando la eficiencia del entrenamiento para modelos ultra grandes.
Además, la introducción de operaciones de baja precisión FP8 y FP4, junto con optimizaciones avanzadas en las operaciones de transformadores en la arquitectura Blackwell, puede aumentar drásticamente la velocidad de inferencia de modelos de lenguaje a gran escala, como ChatGPT. Por ejemplo, los servidores basados en Blackwell pueden procesar decenas de miles de tokens por segundo, reduciendo significativamente la latencia en los servicios de IA conversacional en tiempo real y disminuyendo los costos operativos. Incluso si OpenAI desarrolla un modelo de próxima generación mucho más grande que GPT-4, se espera que una infraestructura compuesta por decenas de miles de GPUs Blackwell lo soporte adecuadamente. Según el anuncio de NVIDIA, un nodo NVL72 compuesto por 72 GPUs Blackwell demostró un rendimiento de inferencia en tiempo real más de 30 veces superior en comparación con los servidores DGX de 8 GPUs existentes, lo que implica una reducción sustancial en el número de servidores físicos necesarios para el despliegue a gran escala de modelos. En otras palabras, desplegar Blackwell en Stargate reducirá el número de servidores necesarios para tareas computacionales equivalentes, mejorando así la eficiencia en el uso de energía y espacio, y en última instancia, reduciendo los costos operativos.
El soporte de tecnologías de red de vanguardia, como NVIDIA Spectrum-X, es otro factor crítico que impulsa la adopción a gran escala de Blackwell en Stargate. En estos clusters de GPUs ultra grandes, el rendimiento de la comunicación entre GPUs influye enormemente en el rendimiento global del sistema. NVIDIA, junto con el lanzamiento de Blackwell, presentó su tecnología Ethernet de alto rendimiento, Spectrum-X, que ofrece una solución de red optimizada para clusters masivos de IA. NVIDIA ha anunciado que suministrará esta plataforma de red Spectrum-X a los primeros centros de datos del proyecto Stargate. Esto minimizará la latencia en la comunicación entre las GPUs y, combinado con los switches NVLink, permitirá la formación de una red de IA ultra rápida que conecte decenas de miles de GPUs. La naturaleza llave en mano de esta solución total proporcionada por NVIDIA representa una ventaja significativa para Stargate. En resumen, es la combinación integral de un rendimiento superior, una escalabilidad notable y una operación eficiente a gran escala —encarnada en la plataforma Blackwell GB200— lo que la ha convertido en la opción evidente como núcleo del proyecto Stargate.
Impacto Global en la Industria de la IA y Perspectivas Futuras
La adopción de NVIDIA Blackwell en el proyecto Stargate tiene implicaciones significativas para la industria global de la IA. En primer lugar, este caso simboliza la rápida expansión en la escala de las inversiones en infraestructura de IA. Mientras que en el pasado, empresas o instituciones individuales invertían miles de millones de dólares en infraestructura de IA, el panorama se está orientando ahora hacia megaproyectos que involucran consorcios con inversiones que suman cientos de miles de millones de dólares, como lo demuestra Stargate. El CEO de NVIDIA, Jensen Huang, ha descrito estos enormes centros de datos de IA como “fábricas de IA” y ha enfatizado que estarán en el corazón de la próxima revolución industrial. Esto indica que la competencia en el desarrollo de modelos de IA se ha convertido en una batalla entre actores de ultra gran escala, y aquellos que carecen de un capital inmenso y tecnología corren el riesgo de quedarse atrás. De hecho, algunos expertos de la industria incluso han especulado que Samsung podría unirse a Stargate, formando potencialmente otra gran alianza en IA, lo que ilustra el impacto disruptivo del anuncio. En consecuencia, se espera que otros gigantes tecnológicos globales aceleren sus propios esfuerzos para construir supercomputadoras de IA. Microsoft, Google, Meta e incluso empresas estatales chinas ya están expandiendo o planeando expandir centros de datos con decenas de miles de GPUs. Además, startups como CoreWeave en Estados Unidos han comenzado a asegurar más de 250,000 GPUs para desafiar el mercado de servicios en la nube de IA. Para satisfacer esta explosiva demanda de GPUs Blackwell, NVIDIA está aumentando su producción, y si esta tendencia continúa, se espera que su posición dominante en el mercado de semiconductores de IA se mantenga firmemente durante algún tiempo.
El progreso del proyecto Stargate también está destinado a acelerar la innovación en toda la industria de los centros de datos. Los campus de centros de datos con una capacidad de 1GW presentarán nuevos desafíos técnicos en cuanto al suministro de energía, la refrigeración y las redes de comunicación. Por ejemplo, podrían introducirse sistemas innovadores de refrigeración líquida a gran escala o sistemas avanzados de aire acondicionado para gestionar de manera eficiente el calor generado por cientos de miles de GPUs de alto rendimiento. Se garantizará un suministro eléctrico estable mediante la integración de la generación de energía renovable, sistemas de almacenamiento de energía y la distribución de corriente continua de alta tensión (HVDC), utilizando infraestructuras eléctricas de última generación. En última instancia, estos avances impulsarán la evolución de las tecnologías de centros de datos, beneficiando no solo a la IA, sino también a los servicios en la nube en general. Además, se espera que la construcción de una vasta infraestructura de IA en los Estados Unidos tenga un impacto positivo en las economías locales, estimulando la actividad económica regional y generando empleos en el sector de alta tecnología. Ya se están contratando cientos de operarios de centros de datos en la región de Abilene, y se proyecta que cada nuevo campus creará miles de empleos.
Desde una perspectiva tecnológica, la llegada de clusters ultra grandes como Stargate podría cambiar fundamentalmente el paradigma de la investigación y el desarrollo en IA. Mientras que los esfuerzos anteriores se centraron en superar las limitaciones de los modelos mediante la optimización de algoritmos y técnicas de aprendizaje distribuido, la eliminación de las restricciones del hardware ahora permite la implementación directa y la experimentación con modelos que tienen un número sin precedentes de parámetros. Esto, en última instancia, podría acercarnos un paso más a lograr la AGI (Inteligencia Artificial General) y proporcionar el terreno fértil para un salto cuántico en el rendimiento de los modelos de IA. Los investigadores de OpenAI y de otros lugares podrían pronto tener la capacidad de emprender proyectos masivos que antes eran impensables, allanando el camino para avances científicos y la solución de problemas complejos a través de la IA.
Los próximos años requerirán una atención minuciosa al progreso de NVIDIA y del proyecto Stargate. NVIDIA ya ha anunciado planes para su chip de próxima generación —Blackwell Ultra— y para arquitecturas subsiguientes (con el nombre en clave Vera Rubin), delineando una hoja de ruta para un crecimiento exponencial en el poder computacional de la IA. De manera similar, tras el lanzamiento de su primer campus, se espera que Stargate expanda gradualmente otros campus, completando su infraestructura en el plazo de cuatro años. En este proceso, el equipo inicial basado en Blackwell será reemplazado o complementado secuencialmente con actualizaciones de próxima generación, garantizando que la infraestructura de IA en evolución se mantenga a la vanguardia de la tecnología. Por ejemplo, después de 2026, podrían introducirse chips Blackwell Ultra o CPUs Grace mejoradas, lo que impulsaría aún más el rendimiento del cluster. Mediante la coevolución del hardware y la infraestructura, se prevé que la industria de la IA mantenga un rápido crecimiento en el futuro previsible, y la estrecha colaboración entre NVIDIA y OpenAI está destinada a ejercer una influencia significativa en toda la industria.
Conclusión: La nueva era de la innovación en IA desatada por NVIDIA Blackwell y Stargate
La llegada de la GB200 basada en NVIDIA Blackwell ha establecido un nuevo hito en el hardware de IA, y su integración con el proyecto Stargate está destinada a desbloquear todo su potencial. Se espera que este proyecto —donde los chips de IA líderes a nivel mundial se unen a niveles sin precedentes de capital e infraestructura— no solo construya centros de datos masivos, sino que también desencadene un cambio de paradigma en la innovación en IA. Con los años de experiencia de NVIDIA, la profunda colaboración con OpenAI y la sólida reputación que ambas compañías tienen en la industria, existe una enorme confianza en el éxito de este sistema de IA a ultraescala.
Por supuesto, proyectos tan enormes como este vienen acompañados de sus propios desafíos. Los primeros informes sobre problemas térmicos en sistemas basados en Blackwell, por ejemplo, subrayan la posibilidad de obstáculos imprevistos que acompañen la adopción de nuevas tecnologías. Además, deben abordarse cuestiones de sostenibilidad relacionadas con el consumo de energía y el calor generado por cientos de miles de chips de IA. No obstante, NVIDIA, OpenAI y otros actores de la industria están persiguiendo activamente nuevos avances tecnológicos e innovaciones en infraestructura para superar estos desafíos.
Una vez que la infraestructura Stargate —compuesta por cientos de miles de GPUs NVIDIA Blackwell— se vuelva completamente operativa, seremos testigos de una nueva era en la que la velocidad y la capacidad de entrenamiento e inferencia de los modelos de IA serán inigualables. Esto conducirá a un aumento sustancial en la utilización de la IA en diversas industrias, impulsando servicios y productos innovadores en campos como la conducción autónoma, la atención médica, las finanzas y la manufactura. La convergencia de NVIDIA Blackwell y el proyecto Stargate es un hito en la historia de la IA, acelerando el ritmo de desarrollo de la IA a niveles sin precedentes. A medida que continuamos siguiendo el progreso y los resultados de este colosal proyecto, se vuelve imperativo monitorear de cerca cómo esta infraestructura de IA transformará el futuro de la humanidad. El proyecto Stargate y los esfuerzos de NVIDIA por empujar los límites de la IA nos preparan para el próximo capítulo en la revolución de la IA.
Preguntas Frecuentes (FAQ)
¿Qué es el Proyecto Stargate?
El Proyecto Stargate es una iniciativa de centros de datos de IA a ultraescala lanzada en 2025 para apoyar la explosiva demanda de cómputo de IA de OpenAI. Con inversiones conjuntas de SoftBank, OpenAI, Oracle y la firma de inversiones MGX de Abu Dhabi —con SoftBank proporcionando el respaldo financiero y OpenAI liderando las operaciones— el proyecto construirá enormes campus de centros de datos en varias ubicaciones de EE. UU. El primer campus está en construcción en Abilene, Texas, y todo el proyecto, valorado en 500 mil millones de dólares, representa un nivel de inversión sin precedentes en una sola iniciativa. Este esfuerzo estratégico tiene como objetivo reforzar el liderazgo de EE. UU. en IA y apoyar el desarrollo de la AGI.
¿Qué es la NVIDIA Blackwell GB200, y cuán poderosa es?
Blackwell es la última arquitectura de GPU de NVIDIA, revelada en 2024. La GB200 se refiere a un superchip que integra dos GPUs B200 con una CPU Grace. La GPU B200 contiene 20,8 mil millones de transistores, ofrece hasta 20 PFLOPs de rendimiento computacional en IA y está equipada con 192GB de memoria HBM3E ultra rápida. Conectada mediante una interconexión personalizada que presume un ancho de banda de 10TB/s entre los chiplets, y equipada con Tensor Cores de sexta generación y Transformer Engines de segunda generación, la Blackwell GB200 ofrece casi cinco veces la velocidad de inferencia y cuatro veces la capacidad de memoria de su predecesora, la H100 (Hopper). Con NVLink de quinta generación, puede agrupar cientos de GPUs, proporcionando una escalabilidad sin precedentes.
¿Por qué OpenAI está construyendo sus propios centros de datos además de utilizar Azure Cloud?
A pesar de recibir recursos masivos en la nube de Microsoft Azure, el éxito explosivo de ChatGPT ha llevado a un aumento exponencial en la demanda de cómputo que, a la larga, podría superar la escala y flexibilidad que Azure puede ofrecer, además de incrementar los costos. A través del Proyecto Stargate, OpenAI tiene como objetivo asegurar su propia infraestructura de IA dedicada para soportar cálculos a gran escala y reducir la dependencia de Azure. Además, poseer centros de datos distribuidos en EE. UU. ofrece ventajas en términos de soberanía de los datos y seguridad. Esta estrategia no solo mejora el control sobre los datos y la infraestructura, sino que también se espera que disminuya el gasto en la nube a largo plazo. OpenAI continuará colaborando con Azure como parte de un enfoque de doble vía.
¿Quiénes son los competidores de NVIDIA Blackwell?
En el actual mercado de aceleradores de IA, los principales competidores que desafían a NVIDIA incluyen a AMD y Google. AMD está compitiendo con GPUs para centros de datos, como la MI300, y Google utiliza sus propios TPUs patentados para el cómputo de IA a gran escala. Sin embargo, muchos expertos de la industria —incluyendo figuras como Elon Musk— han afirmado que “no hay nada mejor que el hardware de NVIDIA en este momento”, reflejando el rendimiento dominante de Blackwell. Las fortalezas integrales de NVIDIA en hardware, su ecosistema CUDA, las optimizaciones de software y las tecnologías de interconexión como NVLink aseguran que la arquitectura Blackwell se mantenga como líder en la infraestructura para entrenamiento e inferencia de IA en el futuro previsible. Además, las políticas gubernamentales de EE. UU. que regulan la exportación de chips de IA de vanguardia, particularmente en lo que respecta a China, refuerzan aún más la posición competitiva de NVIDIA.
Fuentes y Referencias:
- Anuncio oficial en el blog de OpenAI (21 de enero de 2025)
- Artículo de noticias de DatacenterDynamics (27 de febrero de 2025)
- Informe de Bloomberg (Rachel Metz et al., 6 de marzo de 2025)
- Discurso principal de NVIDIA GTC 2024 y documentos técnicos (resumidos de TechPowerUp, etc.)
- Entrevista de Entrepreneur/Bloomberg (4 de octubre de 2024)
- Sitio web oficial de NVIDIA: https://www.nvidia.com/en-us/
- Página de NVIDIA GTC: https://www.nvidia.com/en-us/gtc/
- Blog de OpenAI: https://openai.com/blog/
- DatacenterDynamics: https://www.datacenterdynamics.com/
- Bloomberg Technology: https://www.bloomberg.com/technology
- TechPowerUp: https://www.techpowerup.com/