El Fondo de las Naciones Unidas para la Infancia (UNI) señaló el miércoles informes sobre un rápido aumento en el volumen de imágenes sexualizadas generadas por IA que circulan en internet. Dichas imágenes incluían principalmente casos de fotografías de niños manipuladas y sexualizadas.
La agencia argumentó que el aumento de las herramientas de generación de imágenes o videos basadas en IA que producen material de abuso sexual infantil aumenta los riesgos que enfrentan los niños a través de las tecnologías digitales. UNICEF también instó a los gobiernos y a la industria a tomar medidas urgentes para prevenir la creación y difusión de contenido sexual infantil generado por IA.
El abuso de deepfake es abuso.
Las imágenes, vídeos o audios sexualizados de niños, generados o manipulados mediante herramientas de IA, constituyen material de abuso sexual infantil. Incluso sin una víctimadent, normalizan la explotación sexual infantil.
UNICEF pide acciones urgentes para prevenir…
— UNI CEF (@UNICEF UNI 4 de febrero de 2026
La organización de la ONU señaló que hace menos de cinco años, los modelos generativos de alta calidad requerían una gran capacidad de procesamiento y experiencia. Sin embargo, los modelos actuales de código abierto facilitan a los perpetradores la creación de contenido de abuso sexual.
La agencia considera que, aunque no hay ningún niño real directamente involucrado, dicho contenido normaliza la sexualización infantil y dificulta la dent . UNI CEF también argumentó que los agresores pueden crear imágenes sexuales realistas de un niño sin su participación ni conocimiento.
UNICEF afirmó que este tipo de contenido puede violar el derecho de un niño a la protección sin siquiera saberlo. La agencia también indicó que los niños se enfrentan a vergüenza, estigma, mayor juicio por parte de sus compañeros y adultos, aislamiento social y daño emocional a largo plazo.
UNI CEF también reveló que el aumento de la accesibilidad a las herramientas de generación de imágenes o vídeos con IA ha provocado un aumento repentino en la producción y difusión de material de abuso sexual infantil (MASI). La Fundación para la Vigilancia de Internet (IWF) del Reino Unido encontró aproximadamente 14.000 sospechosas de ser generadas por IA en un único foro de la web oscura dedicado a material de abuso sexual infantil en tan solo un mes. El informe reveló que un tercio de los materiales eran delictivos y los primeros vídeos realistas de abuso sexual infantil con IA.
La IWF también descubrió 3.440 videos de IA de abuso sexual infantil, un aumento del 26.362% respecto de los 13 videos encontrados el año anterior. 2.230 (65%) de los videos fueron categorizados como Categoría A por ser tan extremos, mientras que otros 1.020 (30%) fueron categorizados como Categoría B.
La IWF también dent abuso sexual infantil por IA en plataformas convencionales, incluyendo desnudos deepfake creados en entornos peer-to-peer dirigidos a niñas. La organización también señaló un caso en Corea donde las fuerzas del orden informaron de un aumento de diez veces en los delitos sexuales relacionados con IA y tecnologías deepfake entre 2022 y 2024.
La IA y los deepfakes incluían principalmente a adolescentes, que constituían la mayoría de los acusados. La encuesta de Thorny descubrió que 1 de cada 10 adolescentes en EE. UU. conocía casos de amigos que habían creado imágenes íntimas sintéticas no consensuadas de menores mediante herramientas de IA.
UNI CEF, ECPAT International e INTERPOL también descubrieron que, en 11 países, alrededor de 1,2 millones de niños encontraron sus imágenes manipuladas para crear deepfakes sexualmente explícitos mediante herramientas de IA en 2025. Las agencias también informaron que hasta dos tercios de los niños en unos 11 países temen que la IA pueda usarse para crear imágenes sexuales falsas.
UNICEF argumentó que es necesario informar a padres y cuidadores sobre la explotación y el abuso sexual facilitados por la IA. La agencia también instó a las escuelas a educar aldentsobre los riesgos relacionados con la IA y el daño que causan a las personas afectadas.
UNI Grok, la herramienta de inteligencia artificial de Elon Musk, que impiden que edite fotos reales de personas reales para mostrarlas con ropa reveladora en países donde está prohibido. La iniciativa surgió tras la preocupación generalizada por los deepfakes sexualizados de IA.
El gobierno del Reino Unido instó a X a controlar Grok, mientras que el regulador Ofcom afirmó estar trabajando incansablemente para solucionarlo. X declaró en un comunicado que la empresa había bloqueado geográficamente la posibilidad de que todos los usuarios generaran imágenes de personas reales en bikini, ropa interior y prendas similares a través de la cuenta de Grok y en Grok en X en países donde está prohibido.
Malasia e Indonesia también bloquearon el acceso a Grok a principios del mes pasado debido a su capacidad para generar deepfakes sexualmente explícitos. Cryptopolitan Se informó a principios de este mes que Indonesia había permitido a Grok reanudar sus operaciones después de que X se comprometiera a mejorar el cumplimiento de las leyes del país.
No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis .