O Google acaba de dar uma guinada radical na guerra do hardware de IA, depois que seus chips TPU superaram o GPT-5 em testesdent , derrotando tanto a OpenAI quanto a Nvidia simultaneamente.
O Gemini 3 foi executado principalmente em unidades de processamento de tensores do Google, e não em GPUs da Nvidia. Após a divulgação dos resultados, Sam Altman instruiu a equipe a redirecionar o foco para a correção do ChatGPT e seus modelos principais.
A medida veio na sequência do que a OpenAI chamou de momento de "alerta máximo" na semana passada. Ao mesmo tempo, analistas afirmaram que o Google planeja mais que dobrar a produção de TPUs até 2028, à medida que a demanda por chips de IA próprios continua a crescer.
O Google agora planeja ir além do uso de TPUs apenas em sua própria nuvem. Um acordo recente, por si só, enviou 1 milhão de TPUs para a Anthropic, uma transação avaliada em dezenas de bilhões de dólares. Esse únicotracabalou os investidores da Nvidia.
A preocupação é simples. Se o Google vender mais TPUs para empresas externas, a Nvidia enfrentará uma perda direta na demanda por data centers.
Analistas de semicondutores da SemiAnalysis agora classificam as TPUs como "equivalentes às da Nvidia" tanto para treinamento quanto para execução de sistemas avançados de IA. O Morgan Stanley afirma que cada 500.000 TPUs vendidas para compradores externos podem gerar até US$ 13 bilhões em receita para o Google.
O banco também prevê que a TSMC produzirá 3,2 milhões de TPUs no próximo ano, aumentando para 5 milhões em 2027 e 7 milhões em 2028. Analistas afirmaram que o crescimento em 2027 agora parece maistrondo que as previsões anteriores.
O Google fabrica seus processadores principalmente com a Broadcom, com suporte adicional da MediaTek. A empresa afirma que sua vantagem competitiva reside no controle vertical completo sobre hardware, software e modelos de IA dentro de um único sistema. Koray Kavukcuoglu, arquiteto de IA do Google e CTO do DeepMind, disse: “O mais importante é essa abordagem de pilha completa. Acho que temos uma abordagem única nesse sentido.”
Ele também afirmou que os dados do Google, provenientes de bilhões de usuários, proporcionam uma visão profunda de como o Gemini funciona em produtos como Busca e Visão Geral de IA.
As ações da Nvidia caíram no mês passado depois que o The Information noticiou que a Meta havia mantido conversas com o Google sobre a compra de TPUs. A Meta se recusou a comentar. Analistas agora dizem que o Google poderia fechar acordos de fornecimento semelhantes com a OpenAI, a xAI de Elon Musk ou a Safe Superintelligence, com potencial de receita adicional superior a US$ 100 bilhões ao longo de vários anos.
A Nvidia reagiu após a venda de suas ações. A empresa afirmou que continua "uma geração à frente do setor" e "a única plataforma que executa todos os modelos de IA". Acrescentou ainda que "continuamos fornecendo para o Google" e que seus sistemas oferecem "maior desempenho, versatilidade e fungibilidade" do que as TPUs, que, segundo a empresa, são voltadas para frameworks específicos.
Ao mesmo tempo, os desenvolvedores agora contam com ferramentas que facilitam a transição do software CUDA da Nvidia. As ferramentas de codificação de IA agora ajudam a reescrever cargas de trabalho para sistemas TPU mais rapidamente do que antes. Isso elimina uma das defesas mais fortes da Nvidia contra a dependência de umtronfornecedor.
A história do TPU começou muito antes do atual boom da IA. Em 2013, Jeff Dean, cientista-chefe do Google, fez uma apresentação interna após uma descoberta revolucionária em redes neurais profundas para sistemas de fala. Jonathan Ross, então engenheiro de hardware do Google, relembrou o momento: “O primeiro slide trazia boas notícias: o aprendizado de máquina finalmente funciona. O segundo slide trazia más notícias: não podemos arcar com isso”. Dean calculou que, se centenas de milhões de usuários conversassem com o Google por três minutos por dia, a capacidade dos data centers precisaria dobrar, a um custo de dezenas de bilhões de dólares.
Ross começou a construir o primeiro TPU como um projeto paralelo em 2013, enquanto trabalhava perto da equipe de reconhecimento de voz. "Construímos aquele primeiro chip com cerca de 15 pessoas", disse ele em dezembro de 2023. Ross agora dirige a empresa de chips de IA Groq.
Em 2016, o AlphaGo derrotou o campeão mundial de Go, Lee Sedol, e essa partida histórica se tornou um marco importante para a IA. Desde então, as TPUs têm impulsionado os sistemas de busca, anúncios e YouTube do Google por anos.
O Google costumava atualizar suas TPUs a cada dois anos, mas esse ciclo foi alterado para anual há dois anos, em 2023.
Um porta-voz do Google afirmou que a demanda está aumentando em ambas as frentes. "O Google Cloud está observando uma demanda crescente tanto por nossas TPUs personalizadas quanto por GPUs da Nvidia. Continuaremos oferecendo suporte a ambas", disse a empresa.
Não leia apenas notícias sobre criptomoedas. Entenda-as. Assine nossa newsletter. É grátis .