A Casa Branca está considerando um plano para revisar alguns dos sistemas de inteligência artificial mais poderosos antes que sejam disponibilizados ao público.
A proposta, divulgada pelo The New York Times em 4 de maio, introduziria a fiscalização federal em um ponto crítico do ciclo de vida da IA, pouco antes da implantação. As autoridades estão cada vez mais preocupadas com o fato de que modelos de ponta já sejam capazes de identificardentexplorar vulnerabilidades no software que sustenta infraestruturas essenciais.
Uma análise publicada pelo The Conversation aponta para evidências crescentes de que os sistemas de IA recentes podem descobrir um grande número de vulnerabilidades em sistemas operacionais e navegadores da web. Essa capacidade, embora valiosa para a segurança defensiva, também aumenta os riscos caso essas ferramentas sejam mal utilizadas ou caiam em mãos erradas.
A discussão sobre a política de segurança cibernética ganhou urgência depois que a Anthropic optou por adiar o lançamento mais amplo de seu modelo mais recente, o Mythos. Testes internos revelaram recursos avançados de segurança cibernética, incluindo a capacidade de identificardentfalhas exploráveis. Em resposta, a empresa restringiu o acesso a um grupo limitado de organizações responsáveis por infraestrutura crítica por meio de sua iniciativa “Projeto Glasswing”.
Segundo o The Conversation, a Casa Branca interveio quando a Anthropic explorou a possibilidade de expandir o acesso, sinalizando uma abordagem mais prática à supervisão da IA, mesmo que a política tecnológica em geral tenha permanecido relativamente orientada pelo mercado.
As preocupações não se limitam a uma única empresa ou sistema. O Instituto de Segurança de IA do Reino Unido relatou, em uma avaliação de abril, que o OpenAI GPT-5.5 demonstrou desempenho comparável em tarefas avançadas de segurança cibernética.
Em um teste destacado pelo instituto, o modelo fez engenharia reversa de uma máquina virtual personalizada e resolveu um desafio complexo em minutos, muito mais rápido do que um especialista humano usando ferramentas profissionais.
“Uma questão fundamental era se isso refletia um avanço específico de um modelo ou parte de uma tendência mais ampla”, escreveu o instituto em seu relatório. “Os resultados de uma avaliação inicial do GPT-5.5 sugerem a segunda opção.”
Em conjunto, as descobertas sugerem que essas capacidades estão se tornando uma característica comum dos principais sistemas de IA, em vez de uma inovação isolada.
As implicações vão além da tecnologia e chegam à segurança nacional. Pesquisadores citados pelo The Conversation alertam que grupos ligados a Estados poderiam usar ferramentas semelhantes para realizar operações cibernéticas, potencialmente visando infraestruturas ou sistemas econômicos.
Já existem indícios iniciais dessa mudança. A Anthropic relatou que agentes suspeitos, apoiados por governos, estão usando seus modelos em campanhas de espionagem que afetaram dezenas de organizações. Enquanto isso, a Microsoft e a OpenAI afirmaram em 2024 que grupos ligados a governos estavam utilizando IA para aprimorar ataques cibernéticos.
Ao mesmo tempo, os pesquisadores ainda estão buscando maneiras de controlar esses sistemas de forma confiável. Estudos citados pelo The Conversation sugerem que os filtros de segurança aplicados após o treinamento podem ser contornados, enquanto alguns modelos podem parecer estar em conformidade sem eliminar completamente as capacidades de risco.
Isso levou a uma crescente percepção entre os formuladores de políticas de que as medidas de segurança podem precisar ser incorporadas durante o desenvolvimento do modelo, em vez de adicionadas posteriormente.
A proposta dos EUA está a ganhar forma num contexto regulamentar global mais amplo e ainda em evolução:
Os legisladores começaram a examinar essas questões mais de perto, com audiências no Congresso em abril sobre segurança e governança da IA, embora nenhuma legislação abrangente tenha sido aprovada até o momento.
Se implementado, um sistema de revisão prévia à liberação nos EUA representaria uma mudança em direção à intervenção precoce, colocando a supervisão no ponto em que os riscos podem ser previstos, em vez de depois que eles se materializam.
Tal medida poderia estabelecer um padrão global informal, especialmente considerando a concentração dos principais desenvolvedores de IA nos Estados Unidos. Ao mesmo tempo, aumenta a possibilidade de que as empresas transfiram partes do desenvolvimento ou da implementação para regiões com menos restrições.
O desafio para os formuladores de políticas é equilibrar a inovação com a gestão de riscos em uma área onde as capacidades estão avançando rapidamente e as consequências do uso indevido podem ser de grande alcance.
Por enquanto, as medidas de segurança mais concretas continuam sendo voluntárias. Empresas como a Anthropic estão limitando o acesso a sistemas sensíveis, enquanto organizações como o Instituto de Segurança de IA do Reino Unido continuam realizando avaliaçõesdent .
A formalização da abordagem dos Estados Unidos — e a adesão de outros países a ela — será um fator crucial para definir a governança da IA nos próximos anos.
Não se limite a ler notícias sobre criptomoedas. Compreenda-as. Assine nossa newsletter. É grátis.