Nvidia ha dado otro paso importante en la carrera global hacia las soluciones de IA de alta gama. La compañía afirma que sus nuevos chips Rubin para centros de datos están casi listos para su lanzamiento a finales de este año, y los clientes pronto comenzarán a probarlos.
Los seis chips Rubin han sido devueltos por los socios de fabricación de Nvidia, según informó Nvidia. Estos chips ya se han sometido a varias pruebas clave y están programados para ser utilizados por los clientes. La firma señala que este avance inicial es importante porque las empresas de IA y los centros de datos compiten por obtener hardware más rápido y eficiente.
Jensen Huang, director ejecutivo de Nvidia, compartió la actualización en un discurso inaugural en el ConsumertronShow (CES) de Las Vegas. El CES es uno de los encuentros tecnológicos más grandes del mundo, donde los fabricantes presentan nuevos productos e ideas. «La carrera por la IA ha comenzado», declaró Huang en medio de la rápida competencia entre las empresas tecnológicas por desentrañar la próxima generación de IA.
Sus comentarios indican que Nvidia está muy segura de que aún puede ser el fabricante líder mundial de aceleradores de IA. Estos aceleradores son chips especializados que un centro de datos utiliza para entrenar y ejecutar modelos de IA, que impulsan herramientas como chatbots, sistemas de reconocimiento de imágenes y robots avanzados.
Rubin es el acelerador de IA más reciente de Nvidia, tras su generación anterior, Blackwell . La compañía afirma que Rubin es 3,5 veces más rápido entrenando modelos de IA y cinco veces más rápido ejecutando software de IA que Blackwell. Entrenar IA implica enseñar a los modelos a aprender de grandes cantidades de datos, mientras que ejecutar IA implica utilizar esos modelos para realizar tareas en tiempo real.
Rubin incorpora una nueva unidad central de procesamiento (CPU) con 88 núcleos. Los núcleos son las partes de un chip que realizan cálculos y procesan datos. Con el doble de rendimiento que el chip al que reemplaza, esta nueva CPU es más adecuada para cargas de trabajo de IA más complejas. En la conferencia GTC de primavera de Nvidia en California, la compañía suele compartir todos los detalles del producto.
Esta vez, se agotó más información de lo habitual. Esta medida se considera una forma de mantener a los consumidores y desarrolladores centrados en el hardware de Nvidia, ya que la adopción de la IA sigue creciendo rápidamente. El propio Huang también ha realizado numerosas apariciones públicas promocionando productos, colaboraciones e inversiones en IA. Nvidia no fue la única empresa que acaparó la atención en el CES. Lisa Su, CEO del fabricante de chips rival, Advanced Micro Devices (AMD), también asistió a una conferencia magistral, destacando la creciente competencia en el mercado de chips.
Algunos inversores temen que la competencia por Nvidia se esté intensificando. Otras empresas tecnológicas también están desarrollando sus propios chips de IA, lo que dificulta saber si el gasto en IA podrá mantener el ritmo.
Sin embargo, Nvidia se ha mostrado optimista y cree que el mercado de IA a largo plazo podría valer billones de dólares, impulsado por la demanda de industrias como la computación en la nube, las empresas y los sectores emergentes.
El hardware Rubin se utilizará en el DGX SuperPod de Nvidia, una potente supercomputadora diseñada para trabajos de IA a gran escala. Al mismo tiempo, los clientes podrán adquirir los chips Rubin como componentes individuales, lo que les permitirá construir sistemas más flexibles y modulares.
El aumento del rendimiento es especialmente crucial, dado que los sistemas de IA siguen evolucionando. La IA moderna depende cada vez más de redes de modelos especializados que no solo procesan cantidades masivas de datos, sino que también resuelven problemas en múltiples pasos. Estas tareas incluyen la planificación, el razonamiento y la toma de decisiones.
Nvidia también enfatizó que los sistemas basados en Rubin serán más económicos de operar que los sistemas Blackwell. Dado que Rubin puede ofrecer los mismos resultados con menos componentes, los centros de datos pueden ahorrar energía y costos operativos.
Se espera que importantes empresas de computación en la nube como Microsoft, Google Cloud y Amazon Web Services (AWS) sean de las primeras en implementar hardware Rubin en el segundo semestre del año. Actualmente, estas empresas representan la mayor parte del gasto en sistemas de IA con tecnología Nvidia.
Afila tu estrategia con mentoría + ideas diarias: 30 días de acceso gratuito a nuestro programa de trading