As empresas de inteligência artificial Anthropic e OpenAI estão tomando medidas sérias para lidar com os crescentes riscos associados a seus produtos. A empresa de Altman lançou modelos exclusivos para especialistas, visando auxiliar na defesa de sistemas vulneráveis, enquanto a Anthropic agora exige verificação de identidade para que os usuários possam acessar determinadas funções.
Quando os modelos de IA foram inicialmente disponibilizados ao público, eles foram usados para transformar texto em arte no estilo Ghibli e para escrever listas de compras, mas a inteligência artificial rapidamente se tornou uma preocupação de segurança nacional.
Hackers já estão usando IA para burlar sistemas de defesa, forçando a Anthropic a implementar um processo obrigatório dent . Agora, os usuários precisam de um documento de identidade físico emitido pelo governo (passaporte ou carteira de motorista) e uma selfie para usar determinadas funções.
A Persona, parceira da empresa, é responsável pelo gerenciamento dos dados. A Anthropic esclareceu que não utilizará os dados de identidade dos usuários dent treinar seus modelos de IA. A empresa também esclareceu que a verificação é necessária para “prevenir abusos, aplicar nossas políticas de uso e cumprir obrigações legais”.
Se um usuário falhar no teste ou tentar usar o sistema de um local não suportado, sua conta poderá ser banida.
A repentina repressão se deve à admissão da Anthropic de que seu novo modelo, Claude Mythos Preview, é assustadoramente bom em invadir sistemas.
Em uma postagem no blog divulgada juntamente com a notícia da verificação, a empresa afirmou que o Mythos Preview é "capaz de identificar dent explorar vulnerabilidades de dia zero em todos os principais sistemas operacionais e navegadores da web, quando instruído a fazê-lo por um usuário".
Engenheiros da Anthropic, sem nenhum treinamento formal em segurança, pediram à Mythos para encontrar vulnerabilidades de execução remota de código durante a noite. Segundo a empresa, eles “acordaram na manhã seguinte com um exploit completo e funcional”
O Instituto de Segurança de IA do Reino Unido (AISI) publicou uma avaliação confirmando que o Mythos representa um "avanço" nas capacidades cibernéticas.
A publicação interna do blog da Anthropic fornece os detalhes mais alarmantes sobre as capacidades do modelo. O Mythos, após receber o comando inicial, encontrou uma falha de segurança de 27 anos no OpenBSD, um sistema operacional conhecido por sua segurança.
A Mythos também descobriu um bug de 16 anos no FFmpeg, uma ferramenta de vídeo usada por quase todos os principais serviços. A ferramenta foi testada com milhões de entradas aleatórias em uma técnica chamada fuzzing, mas a Mythos encontrou uma vulnerabilidade no codec H.264 que data de um commit de 2003.
Além disso, a Mythos descobriu uma vulnerabilidade de 17 anos no servidor NFS do FreeBSD e criou um exploit que permite que qualquer usuário não autenticado na internet obtenha acesso root completo ao servidor.
A empresa confirmou que o Mythos Preview "dente explorou essa vulnerabilidade de forma totalmente autônoma". Todo o processo custou menos de US$ 2.000, considerando o preço da API, e levou menos de um dia.
A Mythos encontrou vulnerabilidades em todos os principais navegadores da web. Em um dos casos, desenvolveu um exploit para navegador que encadeava quatro vulnerabilidades, incluindo um ataque de heap spray JIT, para escapar tanto do sandbox de renderização do navegador quanto do sandbox do sistema operacional.
A Anthropic descobriu “milhares de vulnerabilidades adicionais de alta e crítica gravidade” em softwares de código aberto e proprietário. Mais de 99% desses bugs ainda não foram corrigidos.
Apesar desses problemas, a OpenAI anunciou o lançamento do GPT-5.4-Cyber , que, ao contrário dos modelos padrão que se recusam a ajudar em ataques cibernéticos por motivos de segurança, "reduz o limite de recusa para trabalhos legítimos de segurança cibernética".
O GPT-5.4-Cyber consegue analisar software compilado sem acesso ao código-fonte para detectar malware e vulnerabilidades, mas o acesso é restrito ao programa "Trusted Access for Cyber" (TAC) da OpenAI. Somente especialistas em cibersegurança, pesquisadores e organizações que defendem sistemas críticos, devidamente selecionados, podem utilizá-lo.
O Projeto Glasswing da Anthropic também concede acesso limitado a profissionais de segurança em empresas como Amazon ($AMZN), Apple ($AAPL) e Google ($GOOGL) para corrigir infraestruturas críticas antes que invasores possam explorá-las.
Entretanto, a Anthropic sugere instalar as atualizações de segurança imediatamente, em vez de mensalmente.
Suas chaves, seu cartão. Gaste sem abrir mão da custódia e ganhe mais de 8% de rendimento sobre seu saldo com o Ether.fi Cash .