O Openai revelou que há um aumento no uso clandestino de suas ferramentas, particularmente ligado a grupos chineses que estão aproveitando sua plataforma ChatGPT por razões maliciosas.
Desde o lançamento do ChatGPT em novembro de 2022 para obter sucesso imediato, houve preocupações sobre suas possíveis consequências com base em suas habilidades para gerar áudio, texto, imagens e vídeos semelhantes a humanos. E o OpenAI divulgou regularmente relatórios sobre atividades maliciosas em suas plataformas, como conteúdo falso para sites.
Em um relatório publicado na quinta-feira, a empresa de São Francisco revelou que recentemente desmantelou dez campanhas separadas, aproveitando suas ferramentas de IA. Destes, quatro foram organizados por grupos ligados à China, enquanto esquemas de menor escala estavam ligados a outros países.
De acordo com Ben Nimmo , investigador principal da equipe de investigações da Openai, essas operações ligadas à China implantaram uma ampla gama de táticas em vários locais on-line.
"Estamos observando um kit de ferramentas em expansão", disse ele a repórteres.
"Algumas campanhas combinam operações de influência, engenharia social e vigilância, e abrangeram plataformas de Tiktok e X ao Reddit e Facebook".
Nimmo.
Um dos principais exemplos, apelidado de " Sneer Review ", usou o ChatGPT para lançar posts e comentários breves em inglês, chinês e urdu. Esses assuntos abordados como a dissolução da agência dos EUA para o Desenvolvimento Internacional, aplaudindo e criticando alternadamente a decisão e críticas a um videogame de estratégia de Taiwan apresentado como um ataque ao partido no poder da China.
De acordo com o relatório da Openai, na maioria dos casos, a operação criou não apenas postagens originais, mas também responde, fazendo com que pareça um debate "genuíno". Os mesmos grupos também criaram um artigo de formato longo, reivindicando extenso tumulto público contra o jogo.
A "Sneer Review" também usou o ChatGPT para redigir documentos internos e revisões de desempenho, destacando em detalhes todas as etapas da execução da campanha. Analistas do Openai descobriram que o comportamento real da mídia social ecoou de perto essas auto-avaliações, sublinhando como a IA pode otimizar a influência da linha de frente e o gerenciamento de back-office.
O relatório também mostrou que outra rede ligada à China focada na reunião de inteligência, fingindo ser jornalistas e comentaristas geopolíticos. Eles usaram o chatbot para criar biografias de conta em X, traduzir comunicações entre chinês e inglês e até criaram mensagens direcionadas a um senador dos EUA sobre uma indicação federal.
Além das operações chinesas, o relatório observa que russos e iranianos também tentaram usar o ChatGPT para influência relacionada às eleições, ecoando preocupações sobre o papel da IA generativa na formação da opinião pública.
Nas Filipinas, uma equipe de marketing comercial foi conectada a uma campanha de spam, enquanto uma fraude de recrutamento com links para o Camboja também surgiu. A empresa também sinalizou outra iniciativa de emprego com interesses norte -coreanos.
Todas essas ameaças coincidiram com um relatório anterior de fevereiro, no qual o Openai descobriu uma iniciativa de vigilância afiliada a chinês. Essa campanha monitorou os protestos ocidentais em tempo real, dando resumos às agências de segurança chinesa e o ChatGPT facilitou tudo, desde a depuração do código até a elaboração de arremessos de vendas para o software de monitoramento.
O NIMMO indicou que a maioria dessas operações foi detectada e parada, embora parecessem usar ferramentas sofisticadas.
"A IA avançada não se traduz necessariamente em resultados mais eficazes", observou ele. De fato, os relatórios de ameaças regulares da OpenAI sugerem que, embora modelos generativos possam acelerar a criação de conteúdo, eles não garantem influência genuína ou tracgeneralizada.
Em resposta a esses achados, o OpenAI continuou a refinar seus mecanismos de monitoramento e aplicação. A empresa barra contas vinculadas às operações detectadas e remove todos aqueles que estão envolvidos na criação de malware e mensagens políticas automatizadas ou conteúdo enganoso.
Em sua última rodada, o Openai retirou contas que publicaram controvérsias geopolíticas relacionadas à China, incluindo falsas alegações contra ativistas no Paquistão, bem como comentários sobre tarifárias .
Apesar dos sucessos da OpenAI, a empresa também reconhece a natureza de dois gumes da IA generativa, como uma ferramenta de inovação e também uma ferramenta de desinformação.
Principais diferenças : os projetos de criptografia de ferramenta secreta usam para obter cobertura de mídia garantida