El gobierno coreano está considerando medidas regulatorias contra Grok, el chatbot de inteligencia artificial (IA) generativa de xAI, propiedad de Elon Musk. Esto surge tras varias críticas dirigidas al chatbot y su participación en la generación y distribución de imágenes deepfake con fines sexuales.
La información fue reportada por un medio de comunicación local, Electronic tron , que mencionó que la Comisión de Protección de Información Personal (PIPC) lanzó una investigación preliminar de los hechos sobre Grok después de que varias personas informaran sobre acusaciones
El proceso preliminar consiste en confirmar si la violación realmente ocurrió y si el asunto está dentro de su jurisdicción antes de que se pueda iniciar una investigación formal.
Según los informes , la revisión surge tras varios informes que surgieron a nivel local e internacional, acusando a Grok de ser utilizado para crear imágenes deepfake explícitas y no consensuadas, la mayoría de ellas involucrando a individuos reales y menores.
Con esto, el PICP determinará, según se informa, su próximo curso de acción tras revisar la explicación proporcionada por Grok y otros documentos de apoyo. También se espera que la agencia revise las tendencias regulatorias globales, lo que influirá en su toma de decisiones.
Según la Ley de Protección de Información Personal, alterar o generar imágenes sexuales de personasdentsin consentimiento puede constituir un manejo ilegal de datos personales.
Los chatbots de IA, integrados en la plataforma social X y que ofrecen generación de texto e imágenes, han recibido numerosas críticas desde el año pasado por la creación de imágenes falsas de personas reales. El chatbot se ha utilizado para crear todo tipo de imágenes comprometedoras, lo cual ha sido mal visto por el público en general.
Según la organización no gubernamental global Center for Countering Digital Hate, se estima que Grok se utilizó para generar más de tres millones de imágenes sexualmente explícitas entre el 29 de diciembre de 2025 y el 8 de enero de 2026.
La organización afirma que, de esa cifra, más de 23.000 eran imágenes de menores generadas mediante el chatbot. El centro advirtió que la rápida difusión de las imágenes generadas por la IA de Grok ha provocado una circulación masiva de contenido explícito en línea.
El centro también ha advertido sobre los graves riesgos de seguridad que este proyecto supone para los niños. Ante esta amenaza, países como Estados Unidos, el Reino Unido, Francia, Canadá y otros han iniciado investigaciones , mientras que países como Indonesia, Filipinas y Malasia han bloqueado el acceso a Grok.
En respuesta a la controversia, xAI anunció a principios de este año que había implementado ciertas medidas técnicas para evitarla.
La plataforma afirmó que ha prohibido a los usuarios gratuitos y de pago editar o generar imágenes de personas reales y agregó que anunciará más medidas de protección muy pronto.
En Corea, la Comisión de Medios y Comunicaciones (KMCC) exigió a X medidastronestrictas de protección para los jóvenes el 14 de enero. El regulador coreano le dijo a la plataforma de redes sociales que su empresa de inteligencia artificial debe elaborar un plan para prevenir la generación de contenido ilegal o dañino.
Además, el regulador también agregó que la empresa necesita limitar el acceso de los menores a dicho contenido.
Actualmente, X cuenta con un agente de protección juvenil designado en Corea, de conformidad con la ley, y presenta informes anuales sobre el cumplimiento de la normativa. KMCC ha instado a la plataforma a presentar documentación adicional sobre el protocolo de seguridad de Grok, señalando que las imágenes sexuales no consentidas creadas y distribuidas en su plataforma, especialmente las que involucran a menores, constituyen un delito penal en Corea.
La comisión ha fijado un plazo de dos semanas. Si X no responde o ignora la solicitud, podría imponer una multa administrativa de hasta 10 millones de wones (6870 dólares). Esta misma medida se ha observado en otros países, donde xAI se ha encargado de elaborar medidas para frenar el aumento de la amenaza.
Al igual que Corea, los países también han anunciado multas sustanciales si la empresa no elabora y presenta un informe que muestre las medidas que ha adoptado para limitar el aumento de la amenaza.
¿Quieres que tu proyecto esté presente en las mentes más brillantes del mundo de las criptomonedas? Preséntalo en nuestro próximo informe del sector, donde los datos se combinan con el impacto.