Operai ha revelado que existe un aumento en el uso clandestino de sus herramientas, particularmente vinculados a grupos chinos que están aprovechando su plataforma CHATGPT por razones maliciosas.
Desde el lanzamiento de ChatGPT en noviembre de 2022 hasta el éxito inmediato, ha habido preocupaciones sobre sus posibles consecuencias basadas en sus habilidades para generar audio, texto, imágenes y videos similares a los humanos. Y Openai ha publicado regularmente informes sobre cualquier actividad maliciosa en sus plataformas, como contenido falso para sitios web.
En un informe que se publicó el jueves, la firma con sede en San Francisco reveló que recientemente desmanteló diez campañas separadas aprovechando sus herramientas de IA. De estos, cuatro fueron organizados por grupos vinculados a China, mientras que los esquemas de menor escala estaban vinculados a otros países.
Según Ben Nimmo , investigador principal del equipo de investigaciones de OpenAI, estas operaciones vinculadas a China desplegaron una amplia gama de tácticas en múltiples lugares en línea.
"Estamos observando un conjunto de herramientas en expansión", dijo a los periodistas.
"Algunas campañas combinan operaciones de influencia, ingeniería social y vigilancia, y abarcaron plataformas desde Tiktok y X hasta Reddit y Facebook".
Nimmo.
Uno de los ejemplos clave, denominado " revisión más burlona ", usó ChatGPT para lanzar breves publicaciones y comentarios en inglés, chino y urdu. Estos temas cubiertos como la disolución de la Agencia de los Estados Unidos para el Desarrollo Internacional, aplaudiendo y criticando alternativamente la decisión, y las críticas a un videojuego de estrategia taiwanesa presentada como un ataque al partido gobernante de China.
Según el informe de OpenAI, en la mayoría de los casos la operación creó no solo publicaciones originales, sino que también responde, lo que hace que parezca un debate "genuino". Los mismos grupos también crearon un artículo de forma larga que reclamaba un amplio alboroto público contra el juego.
La "revisión más burlona" también utilizó ChatGPT para redactar documentos internos y revisiones de desempeño, destacando en detalle cada paso de la ejecución de la campaña. Los analistas de OpenAI descubrieron que el comportamiento real de las redes sociales se hizo eco de esas autoevaluaciones, subrayando cómo la IA puede optimizar tanto la influencia de primera línea como la gestión de la oficina de la oficina.
El informe también mostró que otra red vinculada a China se centró en la recopilación de inteligencia, fingiendo ser periodistas y comentaristas geopolíticos. Usaron el chatbot para crear biografías de cuentas en X, traducir comunicaciones entre chino e inglés, e incluso crearon mensajes que se dirigían a un senador estadounidense con respecto a una nominación federal.
Además de las operaciones chinas, el informe señala que rusos e iraníes también intentaron usar ChatGPT para la influencia relacionada con las elecciones, haciéndose eco de las preocupaciones sobre el papel de IA generativo en la configuración de la opinión pública.
En Filipinas, un equipo de marketing comercial estaba conectado a una campaña de spam, mientras que también surgió una estafa de reclutamiento con enlaces a Camboya. La compañía también marcó otra iniciativa de empleo con intereses de Corea del Norte.
Todas estas amenazas coincidieron con un informe anterior de febrero en el que OpenAi descubrió una iniciativa de vigilancia afiliada a los chinos. Según los informes, esta campaña monitoreó las protestas occidentales en tiempo real, dando resúmenes a las agencias de seguridad chinas y ChatGPT facilitó todo, desde la depuración de códigos hasta la redacción de argumentos de venta para el software de monitoreo.
Nimmo indicó que la mayoría de estas operaciones fueron detectadas y detenidas, aunque parecían usar herramientas sofisticadas.
"La IA avanzada no necesariamente se traduce en resultados más efectivos", observó. De hecho, los informes regulares de amenazas de OpenAI sugieren que, si bien los modelos generativos pueden acelerar la creación de contenido, no garantizan una influencia genuina o tracgeneralizada.
En respuesta a estos hallazgos, OpenAi ha seguido refinando sus mecanismos de monitoreo y aplicación. La firma prohíbe cuentas que están vinculadas a las operaciones detectadas y elimina todos los que están involucrados en la creación de malware y mensajes políticos automatizados o contenido engañoso.
En su última ronda, Operai retiró cuentas que registraron controversias geopolíticas que se relacionan con China, incluidas las falsas acusaciones contra activistas en Pakistán, así como comentarios sobre arancelarias .
A pesar de los éxitos de Openai, la compañía también reconoce la naturaleza de doble filo de la IA generativa, como una herramienta para la innovación y también una herramienta para la desinformación.
Cable de diferencia de clave : la herramienta secreta que los proyectos de cifrado utilizan para obtener cobertura de medios garantizada