Os cibercriminosos estão usando inteligência artificial para executar esquemas cada vez mais elaborados. Eles estão visando desde economias para aposentadoria até segredos corporativos, com métodos que se tornam cada vez mais difíceis de detectar.
A mesma tecnologia que personaliza anúncios para compradores online agora está sendo usada por criminosos para coletar dados pessoais e lançar golpes personalizados rapidamente. Muito rapidamente.
Grandes empresas de IA, como Anthropic, OpenAI e Google, relatam que criminosos estão explorando suas plataformas para orquestrar operações complexas de phishing, desenvolver softwares maliciosos e executar diversos ataques digitais. Especialistas em segurança alertam que criminosos também estão produzindo gravações de áudio e vídeo falsas de líderes de empresas para enganar funcionários e obter informações confidenciais.
Empresas e órgãos governamentais poderão em breve enfrentar enxames de sistemas com inteligência artificial capazes de detectar vulnerabilidades em redes de computadores e, em seguida, planejar e executar ataques praticamente sem intervenção humana.
A tecnologia está mudando a forma como os criminosos operam online. Alice Marwick dirige a pesquisa da Data & Society, uma organizaçãodent de pesquisa tecnológica. Ela disse ao Wall Street Journal que a maior mudança envolve tamanho e alcance. “A verdadeira mudança é o escopo e a escala. Os golpes são maiores, mais direcionados e mais convincentes.”
Brian Singer édent na Universidade Carnegie Mellon. Ele estuda como grandes modelos de linguagem são usados em ataques e defesas cibernéticas. Sua estimativa? De metade a três quartos das mensagens de spam e phishing em todo o mundo agora vêm de sistemas de IA.
Os próprios ataques se tornaram mais verossímeis. Sistemas de IA treinados com base em comunicações corporativas conseguem produzir milhares de mensagens que soam naturais e se adequam ao estilo da empresa. Eles copiam a forma como os executivos escrevem. Mencionam notícias recentes encontradas em registros públicos.
A tecnologia também ajuda golpistas estrangeiros a esconder erros de idioma que antes tornavam suas tentativas óbvias. Criminosos podem se passar por vítimas por meio de vídeos falsos e vozes copiadas . Eles usam a mesma identidade falsa dent atingir várias pessoas ao mesmo tempo.
John Hultquist é analista-chefe do Grupo de Inteligência de Ameaças do Google. Ele descreve a principal mudança como "credibilidade em escala"
Os criminosos também estão ficando mais habilidosos na escolha de seus alvos. Eles usam inteligência artificial para vasculhar as redes sociais e encontrar pessoas que enfrentam grandes dificuldades na vida, como divórcio, falecimento de familiares, perda de emprego e situações que podem torná-las mais vulneráveis a golpes românticos, fraudes financeiras ou falsas ofertas de emprego.
A barreira de entrada para o cibercrime diminuiu. Mercados clandestinos agora vendem ou alugam ferramentas de IA para atividades criminosas por apenas US$ 90 por mês. Nicolas Christin lidera o departamento de software e sistemas sociais da Carnegie Mellon.
Ele afirmou que essas plataformas oferecem diferentes níveis de preços e suporte ao cliente. "Os desenvolvedores vendem assinaturas para plataformas de ataque com preços escalonados e suporte ao cliente diferenciado."
Esses serviços são conhecidos por nomes como WormGPT, FraudGPT e DarkGPT. Eles podem criar softwares maliciosos e campanhas de phishing. Alguns chegam a incluir materiais didáticos sobre técnicas de hacking.
Margaret Cunningham é vice-dent de segurança e estratégia de IA na Darktrac, uma empresa de segurança. Ela afirma que é simples: "Você não precisa saber programar, apenas saber onde encontrar a ferramenta."
Há um desenvolvimento recente chamado vibe -coding" ou vibe -hacking". Ele pode permitir que aspirantes a criminosos usem IA para criar seus próprios programas maliciosos, em vez de comprá-los de fontes clandestinas. A Anthropic revelou no início deste ano que frustrou diversas tentativas de usar sua IA Claude para criar ransomware por "criminosos com pouca habilidade técnica".
As próprias operações criminosas estão mudando. Segundo especialistas, o cibercrime funciona como um mercado de negócios há anos. Uma operação típica de ransomware envolvia diferentes grupos: corretores de acesso que invadiam redes corporativas e vendiam o acesso; equipes de intrusão que percorriam os sistemas roubando dados; e provedores de ransomware como serviço (RaaS) que liberavam o malware, negociavam os valores e dividiam o dinheiro.
A IA aumentou a velocidade , o tamanho e a disponibilidade desse sistema. O trabalho que antes era realizado por pessoas com conhecimento técnico agora pode ser executado automaticamente matic Isso permite que esses grupos operem com menos pessoas, menos riscos e maiores lucros. "Pense nisso como o próximo nível da industrialização. A IA aumenta a produtividade sem exigir mais mão de obra qualificada", explica Christin.
Será que a IA consegue lançar ataques completamente sozinha? Ainda não. Especialistas comparam a situação ao desenvolvimento de veículos totalmente autônomos. Os primeiros 95% já foram alcançados. Mas a etapa final, que permitiria a um carro dirigir sozinho em qualquer lugar e a qualquer hora, ainda está fora de alcance.
Pesquisadores estão testando as capacidades de invasão de sistemas por IA em ambientes de laboratório. Uma equipe da Carnegie Mellon, com o apoio da Anthropic, recriou a famosa violação de dados da Equifax usando IA no início deste ano. Singer liderou o trabalho no Instituto de Segurança e Privacidade CyLab da Carnegie Mellon. Ele considera isso "um grande salto".
Criminosos exploram a IA para fins maliciosos. Mas empresas de IA afirmam que as mesmas ferramentas podem ajudar organizações a fortalecer suas defesas digitais.
A Anthropic e a OpenAI estão construindo sistemas de IA capazes de examinar continuamente o código de software para localizar vulnerabilidades que criminosos possam explorar. No entanto, as correções ainda precisam ser aprovadas por pessoas. Um programa de IA recente, desenvolvido por pesquisadores de Stanford, teve um desempenho melhor do que alguns testadores humanos na busca por problemas de segurança em uma rede.
Nem mesmo a IA impedirá todas as violações. É por isso que as organizações devem se concentrar na criação de redes robustas que continuem funcionando durante ataques, afirma Hultquist.
Quer que seu projeto seja apresentado às mentes mais brilhantes do mundo das criptomoedas? Apresente-o em nosso próximo relatório do setor, onde dados encontram impacto.