Caitlin Kalinowski, ex-chefe da área de robótica da OpenAI, renunciou ao cargo após trabalhar na empresa por pouco mais de um ano. Kalinowski citou preocupações de que os militares dos EUA pudessem usar as ferramentas de IA da empresa para vigilância doméstica e para sistemas automatizados e direcionados em armas americanas.
Caitlin Kalinowski, chefe de engenharia de hardware e robótica da OpenAI, deixou a empresa de IA após trabalhar lá desde novembro de 2024. Kalinowski anunciou sua renúncia em 7 de março, citando preocupações com um acordo firmado entre a OpenAI e o Departamento de Defesa dos EUA em fevereiro.
Eu me demiti da OpenAI. Tenho um carinho enorme pela equipe de Robótica e pelo trabalho que construímos juntos. Não foi uma decisão fácil. A IA tem um papel importante na segurança nacional. Mas a vigilância de cidadãos americanos sem supervisão judicial e a autonomia letal sem autorização humana são…
-Caitlin Kalinowski (@kalinowski007) 7 de março de 2026
Segundo Kalinowski, sua renúncia foi motivada pela intenção do Departamento de Defesa dos EUA de usar ferramentas e recursos de IA para realizar vigilância de cidadãos americanos sem supervisão judicial. A ex-funcionária da OpenAI escreveu no X que a IA tem um papel vital a desempenhar na segurança nacional.
Ela explicou que o Departamento de Defesa dos EUA pretende usar IA para vigilância e armas autônomas, uma decisão com a qual ela discorda. Ela disse que sua decisão “foi baseada em princípios, não em pessoas” e que estava orgulhosa do que a equipe da OpenAI havia construído durante o período em que trabalhou na empresa.
Em fevereiro, o Pentágono dos EUA intensificou as negociações com as principais empresas de IA sobre a implantação de modelos automatizados em sistemas confidenciais. Cryptopolitan Foi relatado que o Pentágono estava pressionando por negociações com a Anthropic e a OpenAI para incorporar ferramentas de IA em redes militares classificadas.
Emil Michael, diretor de tecnologia do Pentágono, afirmou em uma reunião na Casa Branca com líderes do setor tecnológico que os militares desejam que os modelos de IA operem tanto em redes classificadas quanto em redes não classificadas, sem limitações ou restrições.
As negociações entre o governo dos EUA e a Anthropic chegaram a um impasse, já que seus líderes estabeleceram posições firmes de que sua tecnologia não seria usada para operações de vigilância doméstica nem para sistemas autônomos de mira de armas. A empresa defi ultimato do Pentágono de remover as salvaguardas de IA no final de fevereiro.
O CEO da Anthropic, Dario Amodei, manteve sua posição, recusando-se a permitir que a tecnologia da empresa fosse usada em expedições militares. Em resposta, Trump instruiu todas as agências federais a interromperem o uso da tecnologia da Anthropic no final de fevereiro.
O Departamento de Defesa fechou um acordo com a OpenAI que, desde então, tem sido alvo de críticas. Sam Altman mencionou que o acordo parecia bastante oportunista e esclareceu que a empresa impôs restrições sobre como suas ferramentas de IA serão usadas em operações militares.
No entanto, a contestação de Kalinowski alega que o anúncio foi feito às pressas, sem as devidas salvaguardas. Ela acrescentou que sua saída se baseou em preocupações de governança, que são importantes demais para serem apressadas.
A OpenAI confirmou a saída de Kalinowski em um comunicado, mas afirmou que os vínculos da empresa com os departamentos de defesa abrem caminho para o uso responsável de ferramentas de IA na segurança nacional.
Em fevereiro, a OpenAI anunciou que implantaria uma versão personalizada do ChatGPT na plataforma de IA empresarial segura do Departamento de Guerra, chamada GenAI.mil. A empresa observou que suas colaborações com departamentos militares e de defesa decorrem do papel crucial da IA na proteção de pessoas e na prevenção de conflitos.
O atrito entre o governo dos EUA e as empresas de IA sobre o avanço da IA militar também levou à saída de mais pesquisadores dessas empresas. Um dos principais pesquisadores de salvaguardas da Anthropic se demitiu com a declaração: "O mundo está em perigo"
Outro pesquisador da OpenAI também abandonou o cargo, afirmando que a tecnologia de IA tem uma maneira de controlar os seres humanos que os desenvolvedores não conseguem entender ou impedir.
Zoë Hitzig, ex-pesquisadora da OpenAI, também deixou a empresa em 11 de fevereiro. Ela se demitiu no mesmo dia em que a OpenAI anunciou o início dos testes de anúncios em sua plataforma LLM ChatGPT. Ela alegou que a empresa de IA estava cometendo o mesmo erro que o Facebook.
Hitzig expressou sua preocupação com o fato de o papel único do ChatGPT como confidente para revelações profundamente pessoais (medos médicos, problemas de relacionamento, crenças religiosas) tornar a segmentação de anúncios especialmente arriscada.
Participe de uma comunidade premium de negociação de criptomoedas gratuitamente por 30 dias - normalmente custa US$ 100/mês.