Nvidia ha dedicado la primera parte de la GTC 2026 a acumular anuncios de alianzas en los sectores de chips, nube, robótica, telecomunicaciones, automoción, software industrial, espacio y gráficos.
El evento comenzó el lunes y durará tres días.
Ante un público numeroso, el CEO de Nvidia, Jensen Huang, afirmó que espera que los pedidos relacionados con Blackwell y Vera Rubin alcancen el billón de dólares hasta 2027, cifra muy superior a la oportunidad de ingresos de 500.000 millones de dólares de la que la compañía había hablado el año pasado para esas dos plataformas de chips.
Jensen reiteró que la demanda de Nvidia estrontanto por parte de startups como de grandes empresas. Las acciones de Nvidia subieron alrededor de un 2% el lunes, aunque al cierre de esta edición el martes volvieron a estar en números rojos.
Sin embargo, lo más destacado de la conferencia ha sido el flujo de acuerdos. Según los cálculos de Cryptopolitan, la compañía ya ha puesto en marcha más de 10 alianzas, con un total aproximado de entre 15 y 17.
Uno de los anuncios más inusuales de la GTC 2026 se centró en el espacio. Nvidia afirmó que sus plataformas de computación acelerada más recientes se están utilizando para impulsar la computación de IA en centros de datos orbitales, inteligencia geoespacial y operaciones espaciales autónomas.
La compañía afirmó que su objetivo son entornos donde el tamaño, el peso y el consumo de energía son factores limitantes, pero la demanda de potencia informática importante sigue en aumento.
Ahí es donde entra en juego el nuevo módulo NVIDIA Space-1 Vera Rubin. Nvidia afirmó que este módulo es la última incorporación a su plataforma acelerada para el espacio. También indicó que la GPU Rubin del módulo puede ofrecer hasta 25 veces más capacidad de procesamiento de IA para inferencias espaciales que la GPU NVIDIA H100.
La compañía atribuyó ese aumento a la computación de última generación para centros de datos orbitales, un procesamiento de inteligencia geoespacial más avanzado y operaciones espaciales autónomas. También afirmó que la plataforma está diseñada para que las aplicaciones de IA funcionen tanto en tierra como en el espacio, a medida que las necesidades de las misiones se vuelven más complejas.
Nvidia ha declarado que está colaborando con desarrolladores de cerebros robóticos, fabricantes de robots industriales y empresas de robots humanoides para impulsar la IA física a escala de producción.
En GTC, Jensen presentó nuevos marcos de simulación NVIDIA Isaac y nuevos modelos abiertos NVIDIA Cosmos y NVIDIA Isaac GR00T.
La lista de socios en ese ámbito es extensa, ya que Nvidia mencionó a ABB Robotics, AGIBOT, Agility, FANUC, Figure, Hexagon Robotics, KUKA, Skild AI, Universal Robots, World Labs y YASKAWA como líderes de la industria que desarrollan sobre su plataforma. Jensen dijo:
La IA física ya es una realidad: todas las empresas industriales se convertirán en empresas de robótica. La plataforma integral de NVIDIA, que abarca computación, modelos abiertos y marcos de software, es la base de la industria robótica, uniendo un ecosistema global para construir las máquinas inteligentes que impulsarán la próxima generación de fábricas, logística, transporte e infraestructura
Nvidia también anunció una iniciativa independiente de software industrial. Indicó que está trabajando con Cadence, Dassault Systèmes, PTC, Siemens y Synopsys para llevar NVIDIA CUDA-X, NVIDIA Omniverse y herramientas industriales aceleradas por GPU a FANUC, HD Hyundai, Honda, JLR, KION, Mercedes-Benz, MediaTek, PepsiCo, Samsung, SK hynix y TSMC.
La empresa afirmó que esas herramientas se utilizarán para acelerar el diseño, la ingeniería y la fabricación.
Ese mismo grupo de empresas de software también está implementando herramientas de IA con tecnología de Nvidia para clientes que se preparan para la siguiente etapa del mercado de la IA.
Nvidia afirmó que esas soluciones se ejecutan en su infraestructura de IA a través de Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure, así como a través de los fabricantes de equipos originales Dell, HPE y Supermicro para un trabajo de diseño y simulación más rápido.
La sección de automoción del evento también estuvo muy activa. Nvidia anunció que ha ampliado su colaboración con Hyundai Motor Company y Kia Corporation en tecnología de conducción autónoma de próxima generación basada en la plataforma NVIDIA DRIVE Hyperion.
La compañía afirmó que la colaboración combina las capacidades de Hyundai en materia de vehículosdefipor software, su flota global y el trabajo de desarrollo de conducción autónoma con la computación acelerada, la infraestructura de IA y el software de conducción autónoma de Nvidia.
Como parte de esta colaboración ampliada, Hyundai planea integrar la tecnología de conducción autónoma de Nvidia en determinados vehículos, compatible con sistemas de nivel 2 y superiores. La compañía afirmó que este trabajo tiene como objetivo mejorar la seguridad e incorporar funciones de conducción más inteligentes en todas las plataformas de vehículos Hyundai.
Nvidia también afirmó que la adopción de DRIVE Hyperion está creciendo entre los fabricantes de automóviles globales BYD, Geely, Isuzu y Nissan, junto con los proveedores de movilidad.
Otra colaboración se dio en el nuevo NVIDIA Physical AI Data Factory Blueprint, que Nvidia describió como una arquitectura de referencia abierta que unifica y automatiza la forma en que se generan, expanden y evalúan los datos de entrenamiento.
Para ello, la compañía ha indicado que está trabajando con Microsoft Azure y Nebius para integrar el plan maestro en la infraestructura y los servicios en la nube.
Nvidia también lanzó NVIDIA Dynamo 1.0, un software de código abierto para inferencia generativa y automatizada a gran escala. Según la compañía, este software, en combinación con la plataforma NVIDIA Blackwell, ayuda a los proveedores de servicios en la nube, las empresas de IA y las grandes corporaciones a realizar inferencias con mayor velocidad, escalabilidad y eficiencia.
La compañía afirmó que el problema ahora no radica únicamente en la potencia de cálculo bruta, sino en la orquestación dentro del centro de datos, donde las solicitudes llegan en diferentes tamaños, formatos y en ráfagas impredecibles.
Por eso, Nvidia describió Dynamo 1.0 como el sistema operativo distribuido para fábricas de IA. El software está diseñado para coordinar los recursos de GPU y memoria en un clúster para cargas de trabajo de IA más complejas. En pruebas comparativas del sector, Nvidia afirmó que Dynamo mejoró el rendimiento de inferencia en las GPU NVIDIA Blackwell hasta siete veces.
Las telecomunicaciones fueron otro sector de la lista. Nvidia y T-Mobile afirmaron estar trabajando con Nokia y un creciente ecosistema de desarrolladores para llevar aplicaciones de IA física a través de redes distribuidas de IA perimetral.
Las empresas afirmaron que la infraestructura AI-RAN de próxima generación puede convertir las redes inalámbricas en una plataforma para la computación de IA distribuida de alto rendimiento en el borde de la red.
Lo vincularon con el desarrollo de agentes de IA de visión artificial por parte de desarrolladores, capaces de comprender el mundo físico en ciudades, servicios públicos y centros de trabajo industriales a través de la plataforma NVIDIA Metropolis.
T-Mobile anunció ser la primera operadora en Estados Unidos en implementar la infraestructura AI-RAN de Nvidia mediante el software anyRAN de Nokia. Actualmente, la operadora colabora con socios seleccionados de Nvidia especializados en IA física, al tiempo que continúa ofreciendo conectividad 5G avanzada.
La compañía también lanzó la CPU NVIDIA Vera, que denominó el primer procesador diseñado para IA ámbrica y aprendizaje por refuerzo. Nvidia afirmó que Vera ofrece el doble de eficiencia y funciona un 50 % más rápido que las CPU tradicionales de escala de rack.
El chip se basa en la anterior CPU NVIDIA Grace y está dirigido a organizaciones que desarrollan plataformas de IA para asistentes de programación, agentes empresariales, agentes de consumo y otros servicios de IA a gran escala. Nvidia afirmó que Vera ofrece el mayor rendimiento de un solo hilo y el mayor ancho de banda por núcleo.
Entre las empresas que colaboran con Nvidia para implementar Vera se encuentran los proveedores de servicios en la nube Alibaba, CoreWeave, Meta y Oracle Cloud Infrastructure, junto con fabricantes de sistemas como Dell Technologies, HPE, Lenovo, Supermicro y otros.
¿Sigues dejando que el banco se quede con lo mejor? Mira nuestro video gratuito sobre cómo ser tu propio banco .