A ativista australiana Caitlin Roper revelou que a inteligência artificial está sendo usada para criar ameaças e abusos violentos muito realistas online. Segundo Roper, apesar de anos de atuação como ativista na internet, ela se viu traumatizada pela recente onda de ameaças geradas por inteligência artificial que recebeu.
Ameaças geradas digitalmente são possíveis há alguns anos e, até recentemente, os modelos não conseguiam replicar pessoas reais, a menos que tivessem uma presença online significativa. Segundo um especialista, agora os modelos precisam apenas de uma foto de perfil para criar qualquer coisa que os usuários desejem.
Em 2023, um juiz da Flórida recebeu um vídeo, criado usando uma ferramenta de personalização do jogo Grand Theft Auto. O vídeo mostrava um avatar que se parecia e andava como o juiz sendo brutalmente assassinado.
Segundo Roper, algumas das postagens que recebeu faziam parte de uma campanha de difamação direcionada a ela e aos seus colegas do Collective Shout, um grupo ativista australiano presente no X e em outras plataformas de mídia social. Ela relatou que, em uma das fotos enviadas, havia uma imagem dela pendurada por uma corda, enquanto outro vídeo a mostrava em chamas, gritando. Outras postagens eram ainda mais explícitas, com os usuários se esforçando ao máximo para disseminar sua mensagem.
Roper afirmou que na maioria das fotos e vídeos criados com inteligência artificial, ela usava um vestido floral azul que de fato lhe pertence. "São esses pequenos detalhes estranhos que fazem tudo parecer mais real e, de alguma forma, uma violação diferente", disse ela. "Essas coisas podem ir da fantasia para algo mais do que fantasia." Ela observou que a onda de abusos online começou neste verão, após sua campanha para acabar com videogames violentos que glorificam cenas adultas e abuso.
Ela mencionou que algumas das contas e imagens direcionadas a ela foram removidas. Roper também mencionou que a empresa alegou que outras postagens que retratavam sua morte violenta não violavam os termos de serviço da plataforma. De fato, ela afirmou que a X, em determinado momento, incluiu uma das contas que a assediavam em uma lista de pessoas recomendadas para seguir. Roper mencionou que alguns de seus assediadores também alegaram usar o Grok para pesquisar como encontrar mulheres em casa e em cafés.
Roper alegou que, cansada da situação, decidiu publicar alguns exemplos. Depois disso, X informou que suas contas violavam as políticas de segurança contra conteúdo violento gratuito e bloqueou sua conta temporariamente.
Entretanto, houve uma campanha global contra a inteligência artificial devido ao seu uso para aplicar golpes. Criminosos agora utilizam a tecnologia para imitar a voz de pessoas reais, empregando-a em suas inúmeras atividades ilícitas. Outras atividades incluem a criação de conteúdo adulto com inteligência artificial sem a autorização expressa da pessoa retratada.
Além desse tipo de conteúdo, relatos afirmam que a inteligência artificial também está tornando outras ameaças mais convincentes. Por exemplo, o swatting é a prática de fazer trotes para o serviço de emergência com o objetivo de provocar uma grande mobilização da polícia e dos serviços de emergência. No verão, a Associação Nacional de Procuradores-Gerais mencionou que a tecnologia “intensificou significativamente a escala, a precisão e o anonimato” desses ataques.
Em menor escala, o aumento de vídeos produzidos com inteligência artificial, simulando invasões domiciliares, levoudentde todo o país a acionarem a polícia. O relatório afirma que autores de trotes policiais podem convencer as autoridades de falsos alarmes clonando vozes e manipulando imagens. Um criminoso em série usou simulação de tiros para sugerir a presença de um atirador no estacionamento de uma escola de ensino médio no estado de Washington. O campus ficou isolado por 20 minutos após a chegada da polícia e de agentes federais.
As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer receber? Junte-se a eles .