El Pentágono y Anthropic están en una pelea directa sobre cómo la inteligencia artificial puede ser utilizada por el ejército estadounidense.
El conflicto se centra en las salvaguardias que impedirían al gobierno usar IA para apuntar armas por su cuenta o para realizar vigilancia dentro de Estados Unidos. El desacuerdo se enmarca en untracvalorado en hasta 200 millones de dólares y que ahora ha paralizado las negociaciones.
Esta disputa se ha convertido en una prueba temprana de cuánta influencia tiene realmente Silicon Valley en Washington después de años de tensión.
Los funcionarios de defensa e inteligencia quieren libertad para desplegar herramientas de IA más potentes tron combate y seguridad. Los líderes tecnológicos exigen límites. Las conversaciones se han prolongado durante meses y ahora han llegado a un punto muerto.
Tras largas negociaciones, el Departamento de Defensa de EE. UU. y Anthropic se encuentran estancados. Seis personas informadas sobre las conversaciones afirmaron que ninguna de las partes ha avanzado. El conflicto se ha agudizado durante el segundo mandato deldent Donald Trump, y los desacuerdos dentro de la administración ahora están saliendo a la luz pública.
En un comunicado, Anthropic afirmó que su tecnología es "ampliamente utilizada por el gobierno estadounidense en misiones de seguridad nacional y que mantenemos conversaciones productivas con el Departamento de Guerra sobre cómo continuar con esta labor". Al mismo tiempo, representantes de la compañía manifestaron a los funcionarios su preocupación por la posibilidad de que las herramientas se utilicen para espiar a estadounidenses o para ayudar a las armas a atacar objetivos sin suficiente control humano.
Los líderes del Pentágono rechazaron esos límites. Señalaron un memorando del 9 de enero sobre la estrategia de IA, que establece que las fuerzas armadas deberían tener libertad para usar sistemas de IA comerciales siempre que se cumpla la ley. Los funcionarios afirmaron que las reglas privadas no deberían determinar las decisiones en el campo de batalla.
Aun así, el Pentágono aún necesita a Anthropic para avanzar. Los modelos están diseñados para evitar acciones que puedan causar daños. Los ingenieros de la compañía tendrían que ajustar los sistemas antes de que el ejército pudiera usarlos como desea.
El impasse pone en riesgo el negocio de defensa de Anthropic en un momento delicado. La startup de San Francisco se prepara para una futura oferta pública inicial. Ha invertido cuantiosamente para conseguir contratos de seguridad nacional en EE. UU. y para moldear la política federal de IA desde dentro.
Anthropic es también una de las pocas empresas que el Pentágono seleccionó el año pasado. Otras incluyen a Google, xAI de Elon Musk y OpenAI . Estas empresas ahora son fundamentales en los planes militares de inteligencia artificial de EE. UU.
La cautela de Anthropic ya ha generado fricciones con la administración Trump. En una entrada de blog esta semana, el director ejecutivo, Dario Amodei, advirtió que la IA debería apoyar la defensa nacional "en todos los sentidos, excepto en aquellos que nos asemejarían más a nuestros adversarios autocráticos"
Darío también se ha pronunciado sobre el uso de la fuerza por parte del gobierno en el país. Tras los tiroteos fatales de ciudadanos estadounidenses durante las protestas por la inmigración en Minneapolis, describió las muertes como un "horror" en una publicación en X.
Las mentes más brillantes del mundo de las criptomonedas ya leen nuestro boletín. ¿Te apuntas? ¡ Únete !