El Pentágono está ejerciendo una presión real sobre las principales empresas de inteligencia artificial para que den al ejército estadounidense acceso a sus herramientas dentro de sistemas clasificados.
Los funcionarios no solo piden acceso básico. Quieren que estos modelos de IA funcionen sin las limitaciones habituales que las empresas imponen a los usuarios.
Durante una reunión en la Casa Blanca el martes, Emil Michael, director de tecnología del Pentágono, dijo a los líderes tecnológicos que el ejército quiere que estos modelos de IA funcionen en redes clasificadas y no clasificadas.
Un funcionario cercano a las conversaciones supuestamente dijo que el gobierno ahora está decidido a llevar lo que llama “capacidades de IA de frontera” a todos los niveles de uso militar.
Este impulso forma parte de conversaciones más amplias sobre cómo se utilizará la IA en el combate futuro. Las guerras ya están siendo moldeadas por enjambres de drones, robots y ciberataques incesantes. El Pentágono no quiere quedarse atrás mientras el mundo tecnológico define los límites de lo permitido.
Actualmente, la mayoría de las empresas que trabajan con el ejército ofrecen versiones simplificadas de sus modelos. Estas solo funcionan en sistemas abiertos y no clasificados utilizados para tareas administrativas. Anthropic es la única excepción.
Claude, su chatbot, puede usarse en algunos entornos clasificados, pero solo a través de plataformas de terceros. Aun así, los usuarios gubernamentales deben seguir las normas de Anthropic.
Lo que el Pentágono busca es acceso directo a redes clasificadas de alta sensibilidad. Estos sistemas se utilizan para tareas como planificar misiones o fijar objetivos. No está claro cuándo ni cómo se instalarían chatbots como Claude o ChatGPT en esas redes, pero ese es el objetivo.
Las autoridades creen que la IA puede ayudar a procesar enormes cantidades de datos y proporcionarlos rápidamente a los responsables de la toma de decisiones. Pero si estas herramientas generan información falsa, como ocurre, podrían morir personas. Los investigadores han advertido precisamente sobre eso.
OpenAI llegó a un acuerdo con el Pentágono esta semana. ChatGPT se utilizará ahora en una red no clasificada llamada genai.mil. Esta red ya llega a más de 3 millones de empleados del Departamento de Defensa.
Como parte del acuerdo, OpenAI eliminó muchos de sus límites de uso habituales. Aún existen algunas restricciones, pero el Pentágono obtuvo casi todo lo que buscaba.
Un portavoz de la compañía afirmó que cualquier expansión al uso clasificado requeriría un nuevo acuerdo. Google y xAI de Elon Musk ya han firmado acuerdos similares en el pasado.
Las conversaciones con Anthropic no han sido tan fáciles. Los líderes de la compañía informaron al Pentágono que no quieren que su tecnología se utilice para la selecciónmatic de objetivos ni para espiar a personas dentro de EE. UU.
Aunque Claude ya se utiliza en algunas misiones de seguridad nacional, los ejecutivos de la compañía se resisten. En un comunicado, un portavoz declaró:
“Anthropic se compromete a proteger el liderazgo de Estados Unidos en IA y a ayudar al gobierno de EE. UU. a contrarrestar las amenazas extranjeras brindando a nuestros combatientes acceso a las capacidades de IA más avanzadas”
Dijeron que Claude ya está en uso y que la compañía sigue colaborando estrechamente con el actual Departamento de Guerra. Eldent Donald Trump ordenó recientemente al Departamento de Defensa que adoptara ese nombre, pero el Congreso aún debe aprobarlo.
Mientras todo esto sucede, varios investigadores de estas empresas se retiran. Uno de los principales investigadores de protección de Anthropic declaró al renunciar: «El mundo está en peligro». Un investigador de OpenAI también se retiró, afirmando que la tecnología tiene «el potencial de manipular a los usuarios de maneras que no tenemos las herramientas para comprender, y mucho menos prevenir»
Algunas de las personas que se marchan no lo hacen discretamente. Advierten que las cosas avanzan demasiado rápido y que se ignoran los riesgos. Zoë Hitzig, quien trabajó en OpenAI durante dos años, renunció esta semana.
En un ensayo, expresó sus profundas reservas sobre cómo la empresa planea incorporar anuncios. También afirmó que ChatGPT almacena datos privados de las personas, como sus temores médicos, sus problemas de pareja, sus creencias sobre Dios y el más allá
Ella dijo que esto es un gran problema porque la gente confía en el chatbot y no cree que tenga motivos ocultos.
Casi al mismo tiempo, el sitio web tecnológico Platformer informó que OpenAI se deshizo de su equipo de alineación de misiones. Este grupo se creó en 2024 para garantizar que el objetivo de la compañía de desarrollar una IA que ayude a toda la humanidad realmente tuviera sentido.
Las mentes más brillantes del mundo de las criptomonedas ya leen nuestro boletín. ¿Te apuntas? ¡ Únete !