Uma britânica perdeu mais de US$ 600.000 em um golpe gerado por inteligência artificial depois que os golpistas a fizeram acreditar que ela estava em um relacionamento romântico com o ator Jason Momoa. Segundo relatos, os golpistas enviaram a ela vários vídeos, feitos com inteligência artificial, do ator afirmando diversas coisas.
Segundo relatos, os golpistas usaram essas imagens para enganar a viúva britânica, dizendo que ela poderia viver feliz para sempre com o galã de Hollywood, alegando que o dinheiro que ela enviava seria usado para construir a casa dos seus sonhos no Havaí.
A viúva britânica iniciou o relacionamento depois que o astro de Hollywood supostamente respondeu a um comentário dela em uma de suas páginas de fãs. A partir desse primeiro contato, ele passou a conversar com ela frequentemente, e as coisas evoluíram rapidamente entre eles.
Segundo a polícia, os golpistas, fingindo ser Momoa, começaram a pedir cash à avó . Ele alegava que sua fortuna estava investida em vários projetos cinematográficos nos quais estava trabalhando. A viúva britânica acabou colocando sua casa em Cambridgeshire à venda, transferindo mais de meio milhão de libras da venda para seu suposto namorado. Depois que ela enviou o dinheiro, as mensagens pararam e seu pretendente desapareceu.
"Pode parecer inverossímil, mas é uma história verídica que deixou uma mulher vulnerável sem um lar", disse a Polícia de Cambridgeshire.
A polícia afirmou que os golpistas aplicaram o mesmo golpe em outras vítimas no Reino Unido e nos Estados Unidos. Eles alegaram que outra britânica foi vítima de um golpe de até £80.000, com o golpista utilizando a mesma técnica de golpe romântico usada contra a estrela de Hollywood para enganar a vítima inocente.
A britânica afirmou ter conversado com a filha dele, que, segundo ela, completaria 15 anos este ano. "Também me disseram que ele estava brigando com a ex-esposa pela casa e que precisávamos de uma certidão de casamento para ficar com ela. Então, fui ingênua e paguei por isso", acrescentou.
Dave York, um agente de prevenção de fraudes, observou que os golpistas sempre visam aqueles que consideram estar em situação de vulnerabilidade, especialmente viúvas. De alguma forma, eles percebem o desespero dessas pessoas em preencher as lacunas em suas vidas, criando a oportunidade perfeita para os criminosos.
Além de Jason Momoa, outras figuras populares nos Estados Unidos também tiveram suas fotos e vídeos usados por criminosos. Um exemplo típico é Steve Harvey, o popular apresentador do programa infantil "Family Feud". No ano passado, ele estava entre as celebridades cujas vozes foram imitadas por criminosos para promover um golpe que prometia fundos governamentais.
“Já faz meses que venho dizendo para vocês reivindicarem esses US$ 6.400 gratuitos”, diz uma voz que soa como a de Harvey em um vídeo. No entanto, Harvey pediu aos órgãos reguladores que investiguem o caso e garantam que os responsáveis sejam punidos. “Minha preocupação agora são as pessoas afetadas. Não quero que meus fãs, ou mesmo quem não é fã, sejam prejudicados por isso”, disse Harvey.
Desde o início deste ano, houve um grande aumento no número de golpistas que usam inteligência artificial para cometer crimes. De acordo com uma reportagem da Cryptopolitan, a Comissão de Valores Mobiliários da Nigéria emitiu um comunicado alertando o público sobre o uso de IA para criar deepfakes de personalidades populares com o objetivo de aplicar golpes. Os golpistas criam vídeos deepfake para solicitar fundos, enquanto outros os utilizam para anunciar falsas oportunidades de investimento.
Junte-se a uma comunidade premium de negociação de criptomoedas gratuitamente por 30 dias - normalmente US$ 100/mês.