Os vídeos feitos com inteligência artificial (IA) agora estão enganando os turistas a visitar locais que não existem. Segundo relatos recentes, um casal viajou com entusiasmo por horas para ter a chance de tomar um teleférico chamado Kuak Skyride. O casal viu o vídeo online, com turistas sorrindo e um apresentador de TV narrando a experiência.
No entanto, as coisas não eram as mesmas quando o casal chegou ao local. Eles conheceram uma cidade pequena e moradores confusos que não tinham conhecimento do que estavam falando. Acontece que o vídeo foi gerado usando a IA, e o casal acreditava que era real.
"Por que eles fazem isso com as pessoas?" A mulher idosa da Malásia perguntou ao descobrir que a localização dos sonhos foi fabricada usando o motor artificial generativo criado pelo Google, VEO3 .
De acordo com o trabalhador do hotel que eles perguntaram, a mulher idosa da Malásia havia tropeçado no vídeo em Tiktok , alertando o marido sobre o local. Ambos ficaram impressionados com as vistas e iriam experimentá -lo. O vídeo foi tão convincente que o apresentador de TV cavalgou no bonde e entrevistou turistas felizes. No entanto, o que eles não conseguiram capturar foi o logotipo Veo3 no canto inferior direito do vídeo, mostrando que o vídeo foi feito com a ferramenta.
Enquanto a confusão permanece risível, mostra outra parte prejudicial da inteligência artificial . Esse dent não exigiu criminosos ou golpistas que tentassem levá -los a pagar para visitar um destino de sonho ou enviar um link falso para se registrar para visitar o destino, mas ainda mostra como é fácil para os atores maliciosos realizarem atividades ilícitas com esses vídeos.
A IA dificultou a identificação da diferença entre eventos reais e falsos. Ele fez a menor atividade, como planejar uma férias com algo que as pessoas precisam estar atentos. A experiência desse casal da Malásia pode parecer umdentisolado, mas também mostra que precisamos começar a questionar nossa confiança nas coisas que vemos, ouvimos ou experimentamos em um mundo onde a IA pode fabricar qualquer coisa com facilidade e precisão aterrorizante.
Os números também apoiam a perspectiva da descida coletiva ao engano digital. Por exemplo, os ataques de Deepfake subiram de cerca de 0,1% de todas as tentativas de fraude há três anos para cerca de 6,5% hoje, um grande salto de 2.137% que representa um em cada 15 casos de fraude, conforme indicado pela empresa de serviçosdentsignificados em seu relatório de fevereiro de 2025.
As estatísticas não são apenas números, pois têm vítimas reais por trás delas. Um exemplo típico é Steve Beauchamp, um aposentado de 82 anos que retirou os US $ 690.000 em seu fundo de aposentadoria depois de assistir de Deepfake de Elon Musk promovendo um esquema de investimento. "Quero dizer, a foto dele - era ele", disse Beauchamp ao The New York Times. Após o infeliz dent , suas economias de vida desapareceram no vazio digital.
O escopo do engano movido a IA também tocou todos os aspectos da experiência humana. A empresa de engenharia britânica Arup perdeu mais de US $ 25 milhões depois que um de seus funcionários foi enganado durante uma teleconferência com uma depósito do CFO da empresa e de outros membros da equipe. Um diretor da escola também recebeu ameaças de morte depois que um vídeo manipulado da AID o mostrou fazendo comentários racistas e anti-semitas. Mais tarde, foi descoberto que seu diretor de atletismo fez o vídeo para desacreditá -lo.
O turismo já estava profundo na realidade fabricada antes da AI aperfeiçoar a arte do engano. A mídia social mudou a viagem para o turismo selfie, pois a maioria dos visitantes vai a destinos dignos de férias apenas para dar as melhores fotos para o Instagram. A UNESCO também declarou um incêndio de três alarmes sobre isso, alertando que os viajantes agora estão visitando marcos icônicos para "tirar e compartilhar principalmente fotos de si mesmos, geralmente com marcos icônicos em segundo plano".
Principais diferenças : os projetos de criptografia de ferramenta secreta usam para obter cobertura de mídia garantida