En documentos judiciales presentados el martes, la administración Trump sostuvo que la inclusión de Anthropic en la lista negra del Pentágono era legalmente válida, impugnando las importantes demandas presentadas por la compañía.
El de Claude presentó dos demandas federales el lunes, argumentando que sufrió represalias ilegales por defender la seguridad de la IA. Insiste en que funcionarios del Pentágono están utilizando la lista negra para castigarlo por negarse a eliminar las protecciones contra la militarización y la vigilancia autónomas, violando así sus derechos amparados por la Primera Enmienda.
El 3 de marzo, el secretario de Defensa, Pete Hegseth, clasificó formalmente a Anthropic como un riesgo para la cadena de suministro debido a preocupaciones de seguridad nacional.
En su escrito presentado ante el tribunal, la administración Trump señaló : «Por razones de seguridad nacional, los términos de servicio de la tecnología de inteligencia artificial (IA) de la demandante Anthropic PBC se han vuelto inaceptables para el Poder Ejecutivo. Anthropic reconoce el derecho del Gobierno a no "utilizar los servicios de Anthropic" y a "transicionar a otros proveedores de IA"».
Además, sostuvo que el argumento de Anthropic sobre la Primera Enmienda es forzado y no se sostendrá ante un examen legal. Afirmó que sus acciones se debieron exclusivamente a preocupaciones de seguridad nacional, y no al deseo de castigar a la empresa por sus opiniones sobre la seguridad de la IA.
También afirmó que, durante sus conversaciones con la empresa, la actitud general de Anthropic les llevó a dudar de si sería una buena opción para el Departamento de Defensa.
Según la documentación presentada, el Pentágono se mostró preocupado de que Anthropic pudiera representar una vulnerabilidad para sus cadenas de suministro de defensa. Al parecer, los funcionarios gubernamentales temen que la empresa pueda interrumpir el funcionamiento de sus sistemas en medio de un conflicto si no está conforme con el uso que se le da a la tecnología.
Las negociaciones llevan meses estancadas debido a la negativa de Anthropic a levantar las normas de seguridad que impiden el uso de la IA en la vigilancia masiva o el combate automatizado. La empresa de IA sostiene que permitir "cualquier uso legal", tal como lo solicita el Departamento de Defensa, iría en contra de sus principios fundamentales de seguridad y aumentaría el riesgo de un uso indebido de sus sistemas Claude.
Hasta ahora, los activistas pacifistas han aclamado a Anthropic como un héroe por su resistencia al ejército. Sin embargo, el cofundador y director ejecutivo, Dario Amodei, señaló recientemente que la empresa de IA y el gobierno comparten, en líneas generales, los mismos objetivos. Margaret Mitchell, investigadora de IA y jefa de ética en la empresa tecnológica Hugging Face, incluso advirtió: «Si la gente busca buenos y malos, donde un bueno es alguien que no apoya la guerra, entonces no los encontrarán aquí»
Amodei también comentó : «Anthropic tiene mucho más en común con el Departamento de Guerra que diferencias». Expresó su preocupación por los peligros de las armas biológicas creadas con IA y la injerencia china, pero también cree que las empresas de IA tienen el deber de ayudar a los gobiernos a ganar la guerra tecnológica contra las autocracias.
Según sus declaraciones, le preocupa menos el uso de la IA en la guerra y le aterra más que un puñado de personas tenga el poder de lanzar un ataque masivo, irracional y automatizado con drones con solo pulsar un botón.
En estos momentos, el ejecutivo mantiene una postura firme en contra de las armas autónomas y la vigilancia interna; sin embargo, la empresa ha sido, por lo demás, un aliado muy cooperativo del ejército estadounidense. Anteriormente, la compañía modificó sus modelos de IA para el Departamento de Defensa; de hecho, integraron a Claude en las redes clasificadas más seguras del gobierno, incluidos los sistemas de imágenes satelitales, el análisis de inteligencia, el modelado y la simulación, y la planificación operativa
En su reciente demanda, incluso señaló: «Anthropic no impone las mismas restricciones al uso de Claude por parte de las fuerzas armadas que a los clientes civiles. Claude Gov es menos propenso a rechazar solicitudes que estarían prohibidas en el contexto civil»
Hazte notar donde importa. Publicita en Cryptopolitan Research y llega a los inversores y creadores de criptomonedas más inteligentes.