Gran Bretaña ha anunciado planes para trabajar con Microsoft, académicos y expertos técnicos para construir un sistema de detección de deepfakes, a medida que crece la preocupación por la escala del engaño generado por IA en línea.
La iniciativa coloca a los deepfake, la IA, Gran Bretaña, Microsoft y los sistemas de detección en el centro de un nuevo impulso para frenar el contenido dañino que se está volviendo cada vez más realista y más difícil de detectar.
Según el gobierno, la asociación desarrollará un marco de evaluación para la detección de deepfakes , que creará un conjunto de estándares compartidos para evaluar dispositivos de detección de circuitos en busca de archivos de audio, video e imágenes alterados.
Además de proporcionar un punto de referencia para este tipo de dispositivos de detección frente a ejemplos reales de uso (fraude y suplantación de identidad), así como imágenes o vídeos de explotación sexual de niños.
La ministra de Tecnología, Liz Kendall, advirtió que este riesgo no existe sólo en teoría.
Los delincuentes utilizan deepfakes para engañar al público, aprovecharse de mujeres y niñas, y restar credibilidad a lo que vemos y oímos. Y esto continuará hasta que tomemos medidas para proteger a los ciudadanos y a las instituciones democráticas de la manipulación
Kendall
La manipulación de medios ha existido durante décadas. Sin embargo, los expertos afirman que, con el desarrollo de la IA, el dinero y la habilidad necesarios para producir una falsificación son más accesibles que nunca.
En el Reino Unido, hay un enfoque cada vez mayor en el acto delictivo de producir imágenes íntimas sin consentimiento como resultado directo del rápido aumento en el número de imágenes falsas producidas por IA.
Según datos del gobierno, en 2025 se produjeron ocho millones de imágenes falsas como deepfakes, en comparación con solo 500.000 en 2023. Esto demuestra la rapidez con la que se crean este tipo de imágenes.
El marco se ha creado para permitir a las autoridades detectar, prevenir y procesar este delito y para proporcionar a la industria un conjunto claro de expectativas respecto de las normas de seguridad.
Esta es una medida que se ha instado a los gobiernos a adoptar, y Microsoft solicitó al Congreso que en 2024 aprobara una nueva legislación dirigida a los deepfakes . Brad Smith, vicepresidente y presidente dent Microsoft, había enfatizado la urgencia de que los legisladores abordaran la creciente amenaza de la tecnología deepfake.
En su blog , Smith destacó la importancia de adaptar las leyes para abordar el fraude de deepfakes y prevenir su explotación. Según Smith, debería existir una ley que permita sancionar las estafas y fraudes relacionados con deepfakes.
Según el informe de Microsoft, se pueden tomar diversas medidas legales para prevenir el uso indebido de la tecnología deepfake. Una de las sugerencias es crear una ley federal contra el fraude deepfake
En todo el mundo, los reguladores están teniendo dificultades para mantenerse al día con los rápidos avances de la tecnología de IA.
En el Reino Unido, tanto la oficina que regula las comunicaciones (el “Regulador de Comunicaciones”) como la oficina que regula la privacidad (el “Regulador de Privacidad”) han comenzado a investigar el chatbot Grok , operado por Elon Musk, debido a que el chatbot produce imágenes sexualizadas de niños que fueron producidas sin su consentimiento.
Como parte de esta investigación, los dos organismos reguladores trabajarán juntos para desarrollar un nuevo marco para ayudar a las agencias policiales y reguladoras a establecer estándares consistentes sobre cómo evaluar las herramientas de detección utilizadas por las agencias policiales y reguladoras.
Según Kendall, el propósito de este nuevo marco es “promover la restauración de la confianza en lo que las personas ven y escuchan en línea” y exigir que todos los proveedores de tecnología asuman la responsabilidad de mitigar el daño potencial relacionado con el uso acelerado de las tecnologías de IA.
No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis .