Em documentos judiciais apresentados na terça-feira, o governo Trump sustentou que a inclusão da Anthropic na lista negra do Pentágono era legalmente válida, contestando os importantes processos judiciais movidos pela empresa.
A do Claude iniciou dois processos judiciais federais na segunda-feira, alegando ter sofrido retaliação ilegal por defender a segurança da IA. Ela insiste que autoridades do Pentágono estão usando a lista negra para puni-la por se recusar a abandonar as proteções contra o uso de armas autônomas e a vigilância, violando assim seus direitos garantidos pela Primeira Emenda.
Em 3 de março, o Secretário de Defesa Pete Hegseth classificou formalmente a Anthropic como um risco para a cadeia de suprimentos devido a preocupações com a segurança nacional.
Em sua petição judicial, o governo Trump observou : “Por razões de segurança nacional, os termos de serviço da tecnologia de inteligência artificial (IA) da autora Anthropic PBC tornaram-se inaceitáveis para o Poder Executivo. A Anthropic reconhece o direito do Governo de não 'usar os serviços da Anthropic' e de 'migrar para outros fornecedores de IA'”.
A empresa argumentou ainda que a alegação da Anthropic baseada na Primeira Emenda é forçada e não resistirá a uma análise jurídica rigorosa. Afirmou que suas ações foram motivadas unicamente por preocupações com a segurança nacional, e não por um desejo de punir a empresa por suas opiniões sobre segurança da IA.
A empresa também alegou que, durante as conversas com a Anthropic, a atitude geral da mesma a levou a questionar se ela seria uma boa opção para o Departamento de Defesa.
Segundo o documento, o Pentágono teria se preocupado com a possibilidade de a Anthropic representar uma vulnerabilidade para suas cadeias de suprimentos de defesa. Aparentemente, autoridades governamentais temem que a empresa possa desligar seus sistemas em meio a um conflito, caso não esteja satisfeita com a forma como a tecnologia está sendo utilizada.
As negociações estão paralisadas há meses devido à recusa da Anthropic em suspender as normas de segurança que impedem o uso de IA em vigilância em massa ou combate automatizado. A empresa de IA argumenta que permitir "qualquer uso legal", conforme solicitado pelo Departamento de Defesa, contrariaria seus princípios fundamentais de segurança e aumentaria o risco de uso indevido de seus sistemas Claude.
Até agora, ativistas pacifistas têm aclamado a Anthropic como heroína por resistir aos militares. No entanto, o cofundador e diretor executivo, Dario Amodei, observou recentemente que a empresa de IA e o governo compartilham, em linhas gerais, os mesmos objetivos. Margaret Mitchell, pesquisadora de IA e cientista-chefe de ética da empresa de tecnologia Hugging Face, chegou a alertar: "Se as pessoas estão procurando por mocinhos e bandidos, onde um mocinho é alguém que não apoia a guerra, então elas não vão encontrar isso aqui."
Amodei também observou : "A Anthropic tem muito mais em comum com o Departamento de Guerra do que diferenças". Ele compartilhou suas preocupações sobre os perigos das armas biológicas criadas por IA e a interferência chinesa, mas também acredita que as empresas de IA têm o dever de ajudar os governos a vencer a guerra tecnológica contra as autocracias.
Segundo suas declarações, ele está menos preocupado com o uso de IA na guerra e mais apavorado com a possibilidade de um pequeno grupo de pessoas ter o poder de lançar um ataque massivo, automatizado e sem sentido com drones, simplesmente apertando um botão.
No momento, a diretoria está ponderando uma firme rejeição a armas autônomas e vigilância doméstica; contudo, a empresa tem sido uma aliada altamente cooperativa das forças armadas americanas. Anteriormente, a empresa modificou seus modelos de IA para o Departamento de Defesa; eles chegaram a integrar Claude às redes mais seguras e sigilosas do governo, incluindo sistemas de imagens de satélite, análise de inteligência, modelagem e simulação, e planejamento operacional
Em seu processo recente, a empresa chegou a observar: “A Anthropic não impõe as mesmas restrições ao uso do Claude pelas forças armadas que impõe aos clientes civis. O Claude Gov é menos propenso a recusar solicitações que seriam proibidas no contexto civil.”
Dê visibilidade onde realmente importa. Anuncie na Cryptopolitan Research e alcance os investidores e desenvolvedores mais antenados do mercado de criptomoedas.