O Reino Unido anunciou planos para trabalhar com a Microsoft, acadêmicos e especialistas técnicos para construir um sistema de detecção de deepfakes, à medida que cresce a preocupação com a escala de enganos gerados por IA online.
A iniciativa coloca os deepfakes, a inteligência artificial, o Reino Unido, a Microsoft e os sistemas de detecção no centro de um novo esforço para conter conteúdos nocivos que estão se tornando cada vez mais realistas e difíceis de identificar.
Segundo o governo, a parceria desenvolverá uma estrutura de avaliação para detecção de deepfakes , que criará um conjunto de padrões compartilhados para avaliar dispositivos de detecção de circuitos para arquivos de áudio, vídeo e imagem alterados.
Além de fornecer um parâmetro de comparação para esses tipos de dispositivos de detecção com exemplos reais de uso (fraude e falsificação de identidade), bem como imagens ou vídeos de exploração sexual infantil.
A ministra da Tecnologia, Liz Kendall, alertou que esse risco não existe apenas na teoria.
“Criminosos estão usando deepfakes para enganar o público, tirar vantagem de mulheres e meninas e diminuir a credibilidade do que vemos e ouvimos. E isso continuará acontecendo até que tomemos medidas para proteger os cidadãos e as instituições democráticas da manipulação.”
Kendall
A manipulação de mídias existe há muitas décadas. No entanto, especialistas afirmam que, com o desenvolvimento da inteligência artificial, o dinheiro e a habilidade necessários para produzir uma falsificação estão mais acessíveis do que nunca.
No Reino Unido, há um foco crescente no crime de produção de imagens íntimas sem consentimento, como resultado direto do rápido aumento no número de imagens falsas produzidas por inteligência artificial.
Segundo dados do governo, foram produzidas oito milhões de imagens falsas, conhecidas como deepfakes, em 2025, em comparação com apenas 500 mil em 2023. Isso demonstra a rapidez com que esse tipo de imagem está sendo criado.
A estrutura foi criada para permitir que as autoridades policiais detectem, previnam e processem esse crime, além de fornecer à indústria um conjunto claro de expectativas em relação às normas de segurança.
Essa é uma medida que os governos têm sido pressionados a tomar, e a Microsoft pediu ao Congresso, em 2024, que aprove uma nova legislação visando combater os deepfakes . Brad Smith, vice-presidente e presidente dent Microsoft, enfatizou a urgência de os legisladores abordarem a crescente ameaça da tecnologia deepfake.
Em sua postagem no blog , Smith destacou a importância de adaptar as leis para combater a fraude com deepfakes e prevenir a exploração. Segundo Smith, deveria haver uma legislação que permitisse processar quem pratica golpes e fraudes com deepfakes.
Segundo o relatório da Microsoft, diversas medidas legais podem ser tomadas para prevenir o uso indevido da tecnologia deepfake. Uma das sugestões é a criação de uma "lei federal contra fraudes com deepfakes"
Em todo o mundo, os órgãos reguladores estão tendo dificuldades para acompanhar os rápidos avanços da tecnologia de IA.
No Reino Unido, tanto o órgão regulador das comunicações (o "Communications Regulator") quanto o órgão regulador da privacidade (o "Privacy Regulator") iniciaram uma investigação sobre o chatbot Grok , operado por Elon Musk, devido à produção de imagens sexualizadas de crianças sem o consentimento delas.
Como parte desta investigação, os dois órgãos reguladores trabalharão em conjunto para desenvolver uma nova estrutura que auxilie as agências de aplicação da lei e de regulação no estabelecimento de padrões consistentes para a avaliação das ferramentas de detecção utilizadas por essas agências.
Segundo Kendall, o objetivo dessa nova estrutura é "promover a restauração da confiança no que as pessoas veem e ouvem online" e exigir que todos os fornecedores de tecnologia assumam a responsabilidade de mitigar os danos potenciais relacionados ao uso crescente de tecnologias de IA.
Não se limite a ler notícias sobre criptomoedas. Compreenda-as. Assine nossa newsletter. É grátis .