Google acaba de provocar un reinicio completo en la guerra del hardware de inteligencia artificial, después de que sus chips TPU impulsaran a Gemini 3 más allá de GPT-5 en pruebasdent , aplastando a OpenAI y Nvidia al mismo tiempo.
Gemini 3 se ejecutaba principalmente en unidades de procesamiento tensor de Google, no en GPU de Nvidia. Tras conocerse los resultados, Sam Altman pidió al personal que volviera a centrarse en corregir ChatGPT y sus modelos principales.
La medida se produjo tras lo que OpenAI denominó un "momento de alerta" la semana pasada. Al mismo tiempo, los analistas afirmaron que Google planea duplicar con creces la producción de TPU para 2028, dado el aumento constante de la demanda de chips de IA de fabricación propia.
Google ahora planea ir más allá del uso exclusivo de TPU dentro de su propia nube. Un solo acuerdo reciente envió un millón de TPU a Anthropic, una operación valorada en decenas de miles de millones de dólares. Ese únicotracconmocionó a los inversores de Nvidia.
La preocupación es simple. Si Google vende más TPU a empresas externas, Nvidia se enfrenta a una pérdida directa de la demanda de centros de datos.
Los analistas de chips de SemiAnalysis ahora clasifican las TPU como comparables a las de Nvidia, tanto para el entrenamiento como para la ejecución de sistemas avanzados de IA. Morgan Stanley afirma que cada 500.000 TPU vendidas a compradores externos podrían generar hasta 13.000 millones de dólares en ingresos para Google.
El banco también espera que TSMC produzca 3,2 millones de TPU el próximo año, cifra que aumentará a 5 millones en 2027 y 7 millones en 2028. Los analistas dijeron que el crecimiento en 2027 ahora parece mástronque los pronósticos anteriores.
Google fabrica sus procesadores principalmente con Broadcom, con soporte adicional de MediaTek. La compañía afirma que su ventaja reside en el control vertical total sobre hardware, software y modelos de IA dentro de un mismo sistema. Koray Kavukcuoglu, arquitecto de IA de Google y director de tecnología de DeepMind, afirmó: «Lo más importante es ese enfoque integral. Creo que tenemos un enfoque único en ese aspecto».
También dijo que los datos de miles de millones de usuarios de Google le brindan una visión profunda de cómo funciona Gemini en productos como Búsqueda y Descripciones generales de IA.
Las acciones de Nvidia cayeron el mes pasado después de que The Information informara que Meta había mantenido conversaciones con Google para la compra de TPU. Meta declinó hacer comentarios. Los analistas ahora afirman que Google podría alcanzar acuerdos de suministro similares con OpenAI, xAI de Elon Musk o Safe Superintelligence, con un potencial de ingresos adicionales que superaría los 100 000 millones de dólares en varios años.
Nvidia contraatacó tras la liquidación. La compañía afirmó que se mantiene "una generación por delante de la industria" y "la única plataforma que ejecuta todos los modelos de IA". También afirmó: "Seguimos suministrando a Google". Nvidia añadió que sus sistemas ofrecen "mayor rendimiento, versatilidad y fungibilidad" que las TPU, que, según afirma, están dirigidas a entornos específicos.
Al mismo tiempo, los desarrolladores ahora obtienen herramientas que facilitan la transición del software Cuda de Nvidia. Las herramientas de codificación de IA ahora ayudan a reescribir las cargas de trabajo para sistemas TPU más rápido que antes. Esto elimina una de las defensastronde Nvidia contra el bloqueo.
La historia de la TPU comenzó mucho antes del auge actual de la IA. En 2013, Jeff Dean, director científico de Google, dio una charla interna tras un gran avance en redes neuronales profundas para sistemas de voz. Jonathan Ross, entonces ingeniero de hardware de Google, recordó el momento: «La primera diapositiva fue una buena noticia: el aprendizaje automático por fin funciona. La segunda, una mala noticia: no podemos permitírnoslo». Dean calculó que si cientos de millones de usuarios hablaran con Google durante tres minutos al día, la capacidad de los centros de datos tendría que duplicarse, con un coste de decenas de miles de millones de dólares.
Ross comenzó a construir el primer TPU como proyecto secundario en 2013, mientras trabajaba cerca del equipo de oratoria. "Construimos ese primer chip con unas 15 personas", declaró en diciembre de 2023. Ross ahora dirige la empresa de chips de IA Groq.
En 2016, AlphaGo derrotó al campeón mundial de Go, Lee Sedol, y ese histórico combate se convirtió en un hito importante para la IA. Desde entonces, las TPU han impulsado los sistemas de búsqueda, anuncios y YouTube de Google durante años.
Google solía actualizar sus TPU cada dos años, pero ese ciclo se cambió a anual hace 2 años, en 2023.
Un portavoz de Google afirmó que la demanda está aumentando en ambos frentes. «Google Cloud está experimentando una creciente demanda tanto de nuestras TPU personalizadas como de las GPU de Nvidia. Seguiremos ofreciendo soporte para ambas», declaró la compañía.
No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis .