Según un nuevo informe destacado por Axios , las agencias de inteligencia estadounidenses están desplegando activamente herramientas avanzadas de inteligencia artificial de Anthropic
En el centro de la controversia se encuentra el modelo Mythos Preview , que, según fuentes, actualmente utiliza la Agencia de Seguridad Nacional (NSA). Este desarrollo pone de manifiesto una creciente división dentro del gobierno estadounidense sobre cómo equilibrar la rápida adopción de la IA con las restricciones de seguridad interna.
El Pentágono incluyó a Anthropic en su lista negra a principios de febrero de 2026 tras una disputa sobre las medidas de seguridad de la IA y su uso militar, advirtiendo formalmente que sus sistemas representaban una posible vulnerabilidad en la cadena de suministro. Sin embargo, los funcionarios de inteligencia parecen estar priorizando las capacidades de Mythos, especialmente en ciberseguridad, por encima de estas preocupaciones.
Según fuentes, la Agencia de Seguridad Nacional (NSA) ha adoptado Mythos, al igual que otras unidades del Departamento. Hasta el momento, no se conocen públicamente los detalles del uso que la NSA hace de Mythos, pero en otros ámbitos el modelo se utiliza principalmente para escanear entornos internos en busca de fallos de seguridad. El modelo se considera uno de los sistemas de IA más avanzados disponibles, controncapacidades "agentivas" que le permiten analizar y explotar de forma autónoma sistemas complejos.
Los informes sobre el uso por parte de la NSA y el Departamento de Defensa surgen días después de que fuentes internas indicaran que la Casa Blanca estaba negociando el acceso al modelo Mythos de Anthropic, incluso mientras continuaban los esfuerzos para incluir a la empresa en la lista negra. Más recientemente, el director ejecutivo, Dario Amodei, también confirmó que la empresa ha estado en contacto con funcionarios del gobierno y está abierta a la colaboración.
Algunas agencias argumentan que limitar el acceso a una IA tan potente podría poner a Estados Unidos en desventaja estratégica, especialmente frente a sus rivales geopolíticos. Sin embargo, los expertos advierten que las mismas capacidades que hacen que Mythos sea valioso para la defensa también podrían generar nuevos riesgos. Su capacidad para descubrir vulnerabilidades a gran escala podría utilizarse como arma si se hace un mal uso, lo que suscita preocupación por una escalada en la guerra cibernética.
Solo unas 40 organizaciones verificadas tienen permiso para usar Mythos. De estos 40 grupos, solo 12 son conocidos públicamente, y se dice que la NSA se encuentra entre la mayoría no listada. En el Reino Unido, agencias similares a la NSA también indicaron que tienen acceso al modelo a través de su Instituto Nacional de Seguridad de la IA.
Anthropic describe a Mythos como una herramienta extraordinariamente potente en ciberseguridad, capaz de detectar vulnerabilidades profundamente arraigadas y explotarlas de formadent. Esta combinación de detección avanzada y análisis autónomo ya ha suscitado interés y preocupación entre los responsables políticos.
El viernes, Amodei se reunió con la jefa de gabinete de la Casa Blanca, Susie Wiles, y el secretario del Tesoro, Scott Bessent, para analizar cómo integrar de forma segura el modelo en la infraestructura gubernamental. A pesar de las discrepancias públicas de la Casa Blanca con Anthropic, esta reunión pone de manifiesto que el potencial del modelo es demasiado valioso para las necesidades de seguridad federal como para desaprovecharlo.
Ambas partes calificaron las conversaciones de productivas. La Casa Blanca incluso declaró: «Hablamos sobre oportunidades de colaboración, así como sobre enfoques y protocolos comunes para abordar los desafíos relacionados con la ampliación de esta tecnología»
En marzo, Anthropic respondió al Pentágono presentando una demanda para revocar la designación de riesgo en la cadena de suministro que ponía en peligro sustracgubernamentales. Esta fue la primera vez que se le impuso la etiqueta de "no suficientemente seguro" a un proveedor nacional, lo que, en la práctica, impidió que sus herramientas se utilizaran de forma habitual por el gobierno.
El equipo legal de Anthropic ha calificado la designación de "riesgo" como una táctica de venganza después de que Amodei rechazara la solicitud del Departamento de Defensa de integrar la IA en sistemas de armas totalmente autónomos y en la vigilancia masiva interna.
Tal y como informó anteriormente Cryptopolitan , un juez de un tribunal de distrito de California falló a favor de Anthropic y bloqueó temporalmente la etiqueta de "riesgo en la cadena de suministro". Sin embargo, un tribunal federal de apelaciones revocó posteriormente dicha suspensión, manteniendo la designación vigente por el momento.
En los inicios de la campaña para crear la lista negra, eldent Donald Trump afirmó que los izquierdistas radicales que dirigían la empresa intentaban imponer condiciones al Departamento de Defensa. Argumentó: «¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos!»
Por el momento, algunos en el Departamento de Defensa siguen creyendo que la negativa de Anthropic a cooperar demuestra plenamente que desconectarían su tecnología durante una guerra, lo que los convertiría en un riesgo de fuga en combate. Sin embargo, otros funcionarios de la administración están deseosos de dejar atrás las diferencias con tal de hacerse con la tecnología superior de la compañía.
No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis .