OpenAI está intentando superar a Anthropic en el ámbito de las firmas de capital privado, tras haber introducido, según se informa, una nueva rentabilidad mínima garantizada del 17,5 % y acceso anticipado a sus modelos más recientes.
Esa propuesta va dirigida a empresas como TPG y Advent, pero en realidad se trata de una lucha por la distribución.
Como ves, el mundo funciona así: estas empresas de capital riesgo son propietarias de grandes grupos de empresas privadas consolidadas, por lo que esto le da a OpenAI una forma más rápida de implementar herramientas, asegurar su uso y generar ingresos más sólidos antes de posibles salidas a bolsa este mismo año, aunque, siendo realistas, Anthropic está ganando claramente esta batalla.
La estructura de empresa conjunta también ayuda a cubrir el elevado coste inicial de implementar la IA en grandes empresas. Este trabajo suele requerir ingenieros que personalicen los modelos para cada cliente, lo que supone cash considerable.
Tanto OpenAI como Anthropic compiten ahora por firmar estos acuerdos de colaboración con inversores privados, y este tipo de competencia es todavía bastante reciente en el campo de la inteligencia artificial.
Mientras tanto, a principios de este mes, durante su intervención en la Cumbre de Infraestructura de BlackRock en Washington, el director ejecutivo de OpenAI, Sam Altman, declaró: "En cualquier proyecto de esta envergadura, es probable que muchas cosas salgan mal"
Hizo referencia a un fenómeno meteorológico adverso en un centro de datos en Abilene, Texas, que temporalmente "interrumpió el servicio", ya que ese campus es la sede principal del proyecto Stargate en el que participan OpenAI, Oracle y SoftBank.
El mes pasado, OpenAI alcanzó una valoración de 730.000 millones de dólares en una ronda de financiación récord, justo después de dar marcha atrás en algunos planes de gasto enormes, aparcar algunas ambiciones mayores y aceptar que podría ser mejor comprar grandes cantidades de capacidad en la nube en lugar de intentar construir enormes centros de datos por sí misma.
Ese cambio no facilita la competencia. OpenAI aún tiene que mantenerse al día con Anthropic, Google y otras empresas que desarrollan modelos, aplicaciones y funcionalidades.
El problema radica en que entrenar y ejecutar modelos de IA requiere enormes cantidades de chips, potencia de procesamiento, memoria y energía. Sam y otros ejecutivos llevan años afirmando que la capacidad de procesamiento es uno de los mayores cuellos de botella de la empresa.
A pesar de ello, OpenAI ha seguido recaudando cantidades asombrosas de dinero, incluyendo 110 mil millones de dólares a principios de este año, de los cuales 50 mil millones provinieron de Amazon.
En noviembre, Sam escribió en X que OpenAI y otras empresas "tienen que limitar el uso de nuestros productos y no ofrecer nuevas funciones y modelos porque nos enfrentamos a una grave limitación en la capacidad de procesamiento"
Antes de eso, gran parte de la historia en torno a OpenAI giraba en torno a la agresividad con la que Sam intentaba asegurar capacidad.
La compañía firmó una serie de acuerdos multimillonarios de infraestructura con Nvidia, Advanced Micro Devices y Broadcom. En esa misma publicación de noviembre, Sam afirmó que OpenAI estaba considerando compromisos por un valor aproximado de 1,4 billones de dólares durante los próximos ocho años.
¿Cómo puede una empresa con ingresos anuales de 13.100 millones de dólares (cifra que, por cierto, aún no se ha concretado) asumir compromisos tan enormes? La última ronda de financiación añadió aún más acuerdos de capacidad.
Como parte del paquete de financiación de 110.000 millones de dólares anunciado el mes pasado, OpenAI acordó utilizar aproximadamente 2 gigavatios de capacidad de Trainium a través de Amazon Web Services. Trainium es el chip de IA personalizado de AWS, y Amazon presentó Trainium3 en diciembre.
Nvidia también se sumó a la ronda de financiación con una inversión de 30.000 millones de dólares. OpenAI anunció que amplió su colaboración con Nvidia y acordó utilizar 3 gigavatios de capacidad dedicada para inferencia y 2 gigavatios para entrenamiento en los próximos sistemas Vera Rubin de Nvidia.
Si estás leyendo esto, ya estás al tanto. Sigue leyendo nuestro boletín .