O Pentágono está pressionando fortemente as principais empresas de inteligência artificial para que deem ao exército americano acesso às suas ferramentas dentro de sistemas confidenciais.
As autoridades não estão apenas pedindo acesso básico. Elas querem que esses modelos de IA funcionem sem todas as limitações que as empresas normalmente impõem aos usuários.
Durante uma reunião na Casa Branca na terça-feira, Emil Michael, diretor de tecnologia do Pentágono, disse aos líderes de tecnologia que os militares querem que esses modelos de IA funcionem tanto em redes classificadas quanto em redes não classificadas.
Uma fonte oficial próxima às negociações teria dito que o governo agora está determinado a incorporar o que chama de "capacidades de IA de ponta" em todos os níveis de uso militar.
Essa iniciativa faz parte de discussões mais amplas sobre como a IA será usada em combates futuros. As guerras já estão sendo moldadas por enxames de drones, robôs e ciberataques incessantes. O Pentágono não quer ficar para trás enquanto o mundo da tecnologia define os limites do que é permitido.
Atualmente, a maioria das empresas que trabalham com as forças armadas oferece versões simplificadas de seus modelos. Essas versões funcionam apenas em sistemas abertos e não classificados, utilizados para tarefas administrativas. A Anthropic é a única exceção.
Claude, o chatbot da empresa, pode ser usado em alguns contextos confidenciais, mas apenas por meio de plataformas de terceiros. Mesmo assim, os usuários governamentais ainda precisam seguir as regras da Anthropic.
O que o Pentágono quer é acesso direto a redes confidenciais altamente sensíveis. Esses sistemas são usados para coisas como planejamento de missões ou localização de alvos. Não está claro quando ou como chatbots como Claude ou ChatGPT seriam instalados nessas redes, mas esse é o objetivo.
Autoridades acreditam que a IA pode ajudar a processar enormes quantidades de dados e repassá-los rapidamente aos tomadores de decisão. Mas se essas ferramentas gerarem informações falsas, e elas geram, pessoas podem morrer. Pesquisadores já alertaram exatamente sobre isso.
A OpenAI fechou um acordo com o Pentágono esta semana. O ChatGPT será agora utilizado em uma rede não classificada chamada genai.mil. Essa rede já alcança mais de 3 milhões de funcionários em todo o Departamento de Defesa.
Como parte do acordo, a OpenAI removeu muitas de suas restrições de uso habituais. Ainda existem algumas limitações, mas o Pentágono conseguiu a maior parte do que queria.
Um porta-voz da empresa afirmou que qualquer expansão para uso confidencial exigiria um novo acordo. O Google e a xAI de Elon Musk já fizeram acordos semelhantes no passado.
As negociações com a Anthropic não têm sido fáceis. Os líderes da empresa disseram ao Pentágono que não querem que sua tecnologia seja usada para miramatic ou espionagem de pessoas dentro dos EUA.
Apesar de Claude já estar sendo usado em algumas missões de segurança nacional, os executivos da empresa estão resistindo. Em um comunicado, um porta-voz disse:
"A Anthropic está empenhada em proteger a liderança dos Estados Unidos em IA e em ajudar o governo americano a combater ameaças estrangeiras, dando aos nossos militares acesso às capacidades de IA mais avançadas."
Disseram que Claude já está em uso e que a empresa continua trabalhando em estreita colaboração com o que agora é chamado de Departamento de Guerra. Odent Donald Trump ordenou recentemente que o Departamento de Defesa adotasse esse nome, mas o Congresso ainda precisa aprová-lo.
Enquanto tudo isso acontece, vários pesquisadores dessas empresas estão abandonando seus empregos. Um dos principais pesquisadores de salvaguardas da Anthropic disse: "O mundo está em perigo", ao se demitir. Um pesquisador da OpenAI também saiu, afirmando que a tecnologia tem "potencial para manipular usuários de maneiras que não temos ferramentas para entender, muito menos para prevenir"
Algumas das pessoas que estão saindo não estão fazendo isso discretamente. Elas estão alertando que as coisas estão acontecendo rápido demais e que os riscos estão sendo ignorados. Zoë Hitzig, que trabalhou na OpenAI por dois anos, pediu demissão esta semana.
Em um ensaio, ela disse ter "sérias reservas" sobre como a empresa planeja inserir anúncios. Ela também afirmou que o ChatGPT armazena dados privados das pessoas, como "medos relacionados à saúde, problemas de relacionamento, crenças sobre Deus e a vida após a morte"
Ela disse que esse é um grande problema porque as pessoas confiam no chatbot e não acham que ele tenha segundas intenções.
Quase simultaneamente, o site de tecnologia Platformer noticiou que a OpenAI extinguiu sua equipe de alinhamento de missão. Esse grupo havia sido criado em 2024 para garantir que o objetivo da empresa de construir IA que ajude toda a humanidade realmente fizesse sentido.
As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas .