AMD, multinacional tecnológica estadounidense, ha revelado sus planes para lanzar su rack Helios AI de próxima generación en el CES 2026 de Las Vegas. La directora ejecutiva de la compañía, Lisa Su, ofreció un primer vistazo al sistema Helios durante su presentación, ofreciendo más detalles sobre su diseño y construcción.
El director ejecutivo Su presentó una gran unidad de rack Helios en el escenario, promocionando su rendimiento superior, comparable al Vera Rubin NVL72 de Nvidia, también presentado en el CES 2026. Nvidia ha marcado la pauta en sistemas a escala de rack, con su lanzamiento como su última oferta.
Según Su, Helios competirá directamente con los sistemas NVL de Nvidia. AMD pretende equiparar 72 de sus chips MI455X con las 72 GPU Rubin de su última NVL72.
anunció además planes para ampliar sus esfuerzos al proporcionar más información sobre sus próximas GPU de la serie MI500, que, según afirma, ofrecerán un rendimiento de IA hasta 1000 veces superior al de las GPU Mi300X. Su enfatizó que este aumento de rendimiento será necesario en los próximos años, y añadió que, para los próximos cinco años, unos cinco mil millones de personas utilizarán IA activamente a diario.
AMD también presentó su nueva línea de chips para PC Ryzen AI serie 400, mientras que Su presentó los procesadores MI-455. Señaló que estos procesadores son parte integral de los centros de datos que impulsan los programas de IA.
AMD también presentó sus chips Ryzen AI Pro serie 400, que competirán con los nuevos procesadores Core Ultra 3 de Intel. Estos procesadores se basan en la nueva tecnología de proceso 18A de Intel.
Su también invitó al director ejecutivo de Generative Bionics, Daniele Pucci, al escenario para presentar por primera vez el robot humanoide , GENE.01. El robot está impulsado por GPU y CPU de AMD y está diseñado para operar en entornos industriales.
Su observó que las empresas tecnológicas necesitarán multiplicar por al menos 100 la capacidad informática global en los próximos años. Se espera que este crecimiento beneficie tanto a Nvidia como a AMD, que hasta la fecha han incrementado su capitalización de mercado a 4,5 billones de dólares y 359 000 millones de dólares, respectivamente.
AMD también presentó sus últimos chips Ryzen AI Max+ para estaciones de trabajo ligeras, mini PC y portátiles. También presentó su plataforma para desarrolladores Ryzen Halo. La mini PC permite a los desarrolladores crear modelos de IA localmente, en lugar de depender de soluciones en la nube.
La plataforma para desarrolladores Halo compite con la mini-PC DGX Spark de Nvidia, cuyo precio ronda los 4000 dólares. Sin embargo, AMD aún no ha revelado los precios de Halo.
Mientras tanto, Nvidia también presentó la Plataforma Rubin, que combina las GPU Rubin y la CPU Vera para crear un único procesador Vera Rubin. Nvidia describe la plataforma Rubin como una IA agencial ideal con modelos de razonamiento avanzados.
“Rubin llega justo en el momento justo, ya que la demanda de computación de IA, tanto para entrenamiento como para inferencia, se dispara”
– Jensen Huang , director ejecutivo de Nvidia
La plataforma Rubin, además de las GPU Rubin y las CPU Vera, incluye la DPU Nvidia BlueField-4, el conmutador Nvidia NVLink 6, el conmutador Ethernet Nvidia Spectrum-6 y el SuperNIC Nvidia ConnectX-9.
La combinación de varias NVL72 da como resultado la supercomputadora de IA DGXX SuperPOD de Nvidia. Hiperescaladores como Microsoft, Amazon, Meta y Google están invirtiendo miles de millones de dólares para adquirir estos grandes sistemas.
Nvidia también señaló que la plataforma Rubin es más eficiente que sus predecesoras, lo que probablemente resultará en una reducción de cuatro veces en la cantidad de GPU necesarias para entrenar los mismos sistemas MoE. Esta reducción significa que las GPU adicionales se pueden asignar a diferentes tareas. Rubin también reducirá los costos de tokens de inferencia hasta diez veces.
Mientras tanto, Nvidia sigue promocionando su almacenamiento de IA, el Nvidia Inference Context Memory Storage. La empresa tecnológica afirma que este almacenamiento basado en IA está diseñado para almacenar y compartir datos generados por un modelo de razonamiento de IA de múltiples pasos y un billón de parámetros.
Afila tu estrategia con mentoría + ideas diarias: 30 días de acceso gratuito a nuestro programa de trading