Na segunda-feira, a Comissão Europeia afirmou estar em negociações com a OpenAI e a Anthropic sobre seus modelos de IA, mas as duas conversas são completamente diferentes.
Thomas Regnier, porta-voz da Comissão em Bruxelas, disse a jornalistas que a OpenAI foi a primeira a oferecer acesso ao seu modelo mais recente. A Comissão considerou a iniciativa proativa.
A Anthropic, por outro lado, já se reuniu com autoridades quatro ou cinco vezes, mas o acesso aos modelos ainda não foi discutido.
“Com uma delas (OpenAI), temos uma empresa que se oferece proativamente para dar acesso à plataforma. Com a outra (Anthropic), temos boas trocas de informações, embora ainda não estejamos em um estágio em que possamos especular sobre um possível acesso ou não”, disse durante a coletiva de imprensa.
A escolha do momento não é aleatória. Governos do mundo todo estão prestando atenção aos sistemas avançados de IA.
Este ano, a Lei de IA da UE começou a entrar em vigor. Ela está sendo implementada em etapas. O regulamento estabelece regras baseadas em risco para provedores de IA que atuam na Europa.
As empresas não são obrigadas a fornecer ao governo modelos para análise antes de colocá-los no mercado, mas é evidente que a Comissão deseja saber mais sobre o que está por vir.
A OpenAI e a Anthropic são as duas maiores empresas americanas que trabalham com inteligência artificial de ponta.
Seus sistemas de IA estão se tornando cada vez mais capazes, e os órgãos reguladores estão se esforçando para descobrir o que isso realmente significa.
O serviço audiovisual da Comissão incluiu a discussão sobre a OpenAI e a Anthropic na agenda da sessão informativa do meio-dia de 11 de maio, sob o tema “Cibersegurança”. A discussão está listada ao lado de política de defesa e migração.
Enquanto Bruxelas negocia, Washington pode impor limites.
A Casa Branca está considerando um plano para revisar os modelos de IA mais poderosos antes que sejam divulgados ao público.
Essa ideia ganhou força depois que a Anthropic restringiu o acesso mais amplo ao seu modelo mais recente, o Mythos, quando testes internos mostraram que ele poderia encontrar bugs de software exploráveis em grande escala.
O Instituto de Segurança de IA do Reino Unido deparou-se com problemas semelhantes em abril, quando avaliou o GPT-5.5 da OpenAI.
o modelo realizou engenharia reversa de uma máquina virtual personalizada e resolveu um desafio complexo mais rapidamente do que um especialista humano. Cryptopolitan anteriormente relatadas,
Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.