Anthropic llevó su disputa con la administración Trump a los tribunales el lunes, abriendo un nuevo frente en una de las batallas más cruentas en el sector de la inteligencia artificial. La compañía demandó después de que la administración la calificara de amenaza para la seguridad y tomara medidas para rescindir sustracfederales.
Esa decisión colocó a Anthropic en una categoría generalmente asociada a actores extranjeros hostiles, no a una empresa estadounidense que construye modelos de IA para trabajos gubernamentales y comerciales.
En su denuncia, presentada en el Distrito Norte de California, Anthropic argumentó que la administración actuó fuera de la ley y utilizó el poder federal como castigo después de que la compañía se opusiera a la forma en que el Pentágono quería utilizar la IA.
La demanda nombra al Departamento de Defensa, al Secretario de Defensa Pete Hegseth, al Secretario del Tesoro Scott Bessent, al Secretario de Estado Marco Rubio y al Secretario de Comercio Howard Lutnick.
Anthropic declaró ante el tribunal que las acciones del gobierno amenazan a una de las empresas privadas de inteligencia artificial de más rápido crecimiento del país y podrían sentar un peligroso ejemplo para otras empresas que discrepan de Washington. La empresa solicitó al tribunal que dictaminara que las medidas eran ilegales.
La Casa Blanca respondió rápidamente. Una portavoz declaró: «Eldent Trump jamás permitirá que una empresa progresista y de izquierda radical ponga en peligro nuestra seguridad nacional dictando cómo opera el ejército más grande y poderoso del mundo»
Poco después de la presentación del caso, 37 investigadores de IA de sus rivales OpenAI y Google presentaron un escrito solicitando al tribunal que se pusiera del lado de Anthropic. Este apoyo demostró hasta qué punto este conflicto se ha extendido más allá de una sola empresa y un solotrac.
En su presentación advirtieron que castigar a una importante empresa estadounidense de inteligencia artificial por establecer límites de seguridad podría dañar la posición más amplia del país en materia de inteligencia artificial.
Los investigadores escribieron: “Si se permite que continúe, este esfuerzo por castigar a una de las principales empresas estadounidenses de inteligencia artificial sin duda tendrá consecuencias para la competitividad industrial y científica de Estados Unidos en el campo de la inteligencia artificial y más allá”
Ese informe añadió más presión a un caso que ya estaba atrayendo la atención en todo el sector tecnológico.
La lucha más profunda se centra en las normas que deberían existir cuando el Pentágono utiliza sistemas de IA. Durante las negociacionestraccon el Departamento de Defensa, Anthropic quería garantías claras de que sus herramientas no se utilizarían para la vigilancia doméstica masiva ni para armas autónomas.
El Pentágono rechazó ese enfoque. Su postura era simple: cumple la ley, no haría esas cosas y la empresa debería confiar en que el ejército usará la IA en cualquier situación legal. Ese desacuerdo contribuyó a frustrar las negociaciones formales, que el Pentágono ha declarado desde entonces como concluidas.
La disputa también se extendió a la política y el comercio. Ambas partes se han enfrentado por la decisión de Trump de permitir la exportación de chips de IA a China. También ha habido fricción por los vínculos de Anthropic con organizaciones que donaron a causas demócratas.
Esos problemas convirtieron a la empresa en un objetivo importante para los aliados de Trump, aun cuando la disputa le trajo más apoyo de algunos clientes y socios.
El enfrentamiento empeoró aún más el 27 de febrero, cuando Hegseth anunció que designaría a Anthropic como un riesgo para la cadena de suministro del Pentágono. Esta herramienta se utiliza normalmente para empresas vinculadas a adversarios extranjeros.
En virtud de ese proceso, los altos funcionarios del Pentágono deben demostrar la existencia de una amenaza real a la seguridad. Hegseth y otros funcionarios argumentaron que la negativa de Anthropic a permitir que el ejército utilizara su IA en todos los casos legales constituía en sí misma un riesgo.
Su argumento era que una empresa privada no debería poder controlar cómo las fuerzas armadas utilizan tecnología crítica, porque una empresa podría posteriormente desactivar el acceso o cambiar la configuración durante las operaciones.
Ese mismo día, Trump ordenó a las agencias federales que dejaran de usar a Claude y les dio seis meses para pasar a otros modelos de IA. Anthropic aprovechó ese punto en su queja, diciendo que el período de seis meses muestra cuán importantes son sus sistemas para el gobierno.
La compañía también afirmó que Trump se saltó los pasos legales necesarios para cancelar untracfederal. Su acuerdo con el Departamento de Defensa valía hasta 200 millones de dólares.
El daño financiero podría trascender el trabajo directo con el gobierno. Los clientes que también trabajan con el Pentágono podrían ahora tener que demostrar que no utilizaron a Claude en actividades del Departamento de Defensa.
Esto podría afectar el negocio de Anthropic incluso fuera deltrac. Aun así, Microsoft y Google, tanto inversores como socios, afirmaron que seguirían trabajando con la empresa en proyectos comerciales que no involucraran al Pentágono.
Los partidarios de Anthropic dicen que el caso de la administración parece inestable por otra razón: el Pentágono ha utilizado a Claude en operaciones en Irán, y hasta hace poco Anthropic era el único desarrollador de modelos de IA autorizado para entornos clasificados.
Una portavoz de Anthropic declaró: «Solicitar una revisión judicial no altera nuestro compromiso de larga data de aprovechar la IA para proteger nuestra seguridad nacional, pero es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios». Añadió: «Seguiremos buscando todas las vías para llegar a una solución, incluido el diálogo con el gobierno»
¿Quieres que tu proyecto esté presente en las mentes más brillantes del mundo de las criptomonedas? Preséntalo en nuestro próximo informe del sector, donde los datos se combinan con el impacto.