Três mulheres do Arizona processaram diversas pessoas e empresas, alegando que suas imagens foram retiradas de suas redes sociais e utilizadas por modelos de inteligência artificial (IA) para gerar deepfakes delas. Elas afirmam que os suspeitos envolvidos usaram os modelos para gerar suas imagens explícitas e lucrar com elas.
O processo judicial apresentado no Tribunal Superior do Condado de Maricopa, no Arizona, tem como alvo uma conta do Instagram que publicou diversos vídeos de mulheres, anunciando-as como modelos de inteligência artificial para gerar lucro. As autoras da ação, cujos nomes estão sendo mantidos em sigilo por motivos de privacidade, observaram que algumas das imagens foram criadas usando fotos de suas redes sociais sem consentimento prévio. Uma das vítimas mencionou que agora está sendo vista de uma maneira que a incomoda, simplesmente por causa das imagens que estão circulando.
O processo nomeia três réus do Condado de Maricopa, no Arizona, incluindo Beau Schultz, o proprietário da conta do Instagram. O processo também nomeia outros 50 indivíduos não identificados e diversas empresas que supostamente foram criadas ou utilizadas para administrar o negócio. Os autores da ação estão sendo representados por Nick Brand, do escritório Donlon Group, e Cristina Perez Hesano, do escritório Pere Law Group.
Segundo Brand, os réus, provavelmente do Arizona, criaram projetos para ensinar outros homens e meninos a fabricar esses chamados influenciadores de IA, que são então despidos a partir de imagens de pessoas totalmente vestidas. Ele acrescentou que os réus usam esses deepfakes gerados para criar um site pornográfico por assinatura, onde trocam mensagens eróticas com os clientes. Brand observou que o problema parece ser mais amplo do que ele imaginava antes de ser designado para o caso.
No processo judicial do Arizona, os réus instruíram seus clientes a evitar o uso de influenciadores populares ou conhecidos e, em vez disso, recorrer a microinfluenciadores para reduzir o risco de problemas legais. "Não consigo acreditar na minha ingenuidade em relação ao sofrimento que as mulheres enfrentam com o avanço da tecnologia", disse . Segundo uma das vítimas, somente uma legislação rigorosa pode prevenir esses males e impedir que mais mulheres sejam alvo de golpes semelhantes.
Outra vítima mencionou que o público não deveria ter permissão para usar inteligência artificial para causar tanto estrago, observando que aqueles que a utilizam estão visando a irmã, a mãe, um amigo ou um colega de trabalho de alguém. Enquanto isso, uma das empresas citadas no processo, a Phyziro, uma plataforma de processamento de pagamentos, afirmou que as acusações são materialmente falsas. A empresa alegou ser uma provedora de Serviços de Computação Interativos, conforme definido na Seção 47 do Código dos Estados Unidos, Seção 230.
“A empresa não será considerada editora, porta-voz ou autora de qualquer conteúdo ou transação gerada por usuários terceirizados ou agentes autônomos. Além disso, não temos a obrigação de monitorar a intenção específica ou as atividades ilícitas de usuários ou usuários de usuários. O Membro e o Gestor estão isentos de responsabilidade por eventos de 'Conhecimento Assimétrico', nos quais agentes de IA, usuários ou usuários de usuários atuam fora da visibilidade ou programação direta do Gestor.”
A empresa mencionou que atua apenas como fornecedora de ferramentas e infraestrutura neutras, ressaltando que sua responsabilidade se limita estritamente à operacionalidade técnica da plataforma. Em sua declaração, a empresa observa que a Seção 230 da Lei de Decência nas Comunicações (Communications Decency Act) a isenta de qualquer irregularidade. No entanto, há atualmente um esforço bipartidário no Congresso para revogar a lei, o que obrigaria as plataformas a se responsabilizarem pelo conteúdo publicado em seus sites ou a eles vinculado.
Essa novidade do Arizona surge em um momento em que o chatbot Grok vem sendo alvo de fortes críticas da população mundial. Governos de diversos países acusaram a plataforma de não implementar mecanismos de controle para as atividades do chatbot, o que o levou a criar deepfakes gerados por inteligência artificial com imagens explícitas de mulheres e crianças. Enquanto alguns países emitiram alertas à plataforma, outros suspenderam temporariamente o acesso até que o problema seja corrigido.
Não leia apenas notícias sobre criptomoedas. Entenda-as. Assine nossa newsletter. É grátis .