A OpenAI está tentando superar a Anthropic junto às empresas de capital privado, tendo supostamente introduzido um novo retorno mínimo garantido de 17,5% e acesso antecipado aos seus modelos mais recentes.
Essa proposta é direcionada a empresas como a TPG e a Advent, mas na verdade trata-se de uma disputa pela distribuição.
Veja bem, o mundo funciona assim: essas empresas de aquisição possuem grandes grupos de empresas privadas consolidadas, o que dá à OpenAI uma maneira mais rápida de lançar ferramentas, garantir o uso e gerar receita mais estável antes de uma possível abertura de capital já neste ano. Mas, sejamos realistas, a Anthropic está ganhando disparado nessa disputa.
A estrutura de joint venture também ajuda a cobrir o alto custo inicial de implementação de IA em grandes empresas. Esse trabalho geralmente exige que engenheiros personalizem os modelos para cada cliente, o que consome cash rapidamente.
Tanto a OpenAI quanto a Anthropic estão agora numa corrida para fechar essas parcerias de capital privado, e esse tipo de competição ainda é bastante recente na área de IA.
Entretanto, falando no início deste mês na Cúpula de Infraestrutura dos EUA da BlackRock em Washington, o CEO da OpenAI, Sam Altman, disse: "Qualquer coisa nessa escala, é como se muita coisa desse errado."
Ele mencionou um evento climático severo em um complexo de data centers em Abilene, Texas, que temporariamente "paralisou as operações", já que esse complexo é a sede principal do projeto Stargate, de , que envolve a OpenAI, a Oracle e o SoftBank.
No mês passado, a OpenAI atingiu uma avaliação de US$ 730 bilhões em uma rodada de financiamento recorde, logo após recuar de alguns planos de gastos enormes, arquivar algumas ambições maiores e aceitar que talvez seja melhor comprar grandes quantidades de capacidade em nuvem em vez de tentar construir enormes centros de dados por conta própria.
Essa mudança não facilita a competição. A OpenAI ainda precisa acompanhar a Anthropic, o Google e outras empresas que desenvolvem modelos, aplicativos e recursos.
O problema é que o treinamento e a execução de modelos de IA exigem quantidades enormes de chips, poder de processamento, memória e energia. Sam e outros executivos vêm dizendo há anos que a capacidade computacional é um dos maiores gargalos da empresa.
Mesmo assim, a OpenAI continuou arrecadando quantias impressionantes de dinheiro, incluindo US$ 110 bilhões no início deste ano, dos quais US$ 50 bilhões vieram da Amazon.
Em novembro, Sam escreveu no X que a OpenAI e outras empresas "têm que limitar a taxa de utilização de nossos produtos e não oferecer novos recursos e modelos porque enfrentamos uma restrição computacional muito severa"
Antes disso, grande parte da história em torno da OpenAI girava em torno de quão agressivamente Sam estava tentando garantir capacidade.
A empresa firmou uma série de contratos de infraestrutura multimilionários com a Nvidia, a Advanced Micro Devices e a Broadcom. Naquela mesma publicação de novembro, Sam afirmou que a OpenAI estava prevendo compromissos de aproximadamente US$ 1,4 trilhão nos próximos oito anos.
Como uma empresa com receita anual de US$ 13,1 bilhões (que, aliás, ainda não foi divulgada) assume compromissos tão grandes? A última rodada de financiamento adicionou ainda mais contratos de capacidade.
Como parte do pacote de financiamento de US$ 110 bilhões anunciado no mês passado, a OpenAI concordou em usar cerca de 2 gigawatts de capacidade do Trainium por meio da Amazon Web Services. O Trainium é o chip de IA personalizado da AWS, e a Amazon lançou o Trainium3 em dezembro.
A Nvidia também participou da rodada com um investimento de US$ 30 bilhões. A OpenAI afirmou ter expandido sua parceria com a Nvidia e concordado em utilizar 3 gigawatts de capacidade dedicada à inferência e 2 gigawatts de capacidade de treinamento nos futuros sistemas Vera Rubin da Nvidia.
Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter .