A empresa por trás do ChatGPT emitiu um alerta contundente na quarta-feira sobre os potenciais perigos que espreitam na próxima geração de sistemas de inteligência artificial, afirmando que eles podem representar sérias ameaças à segurança cibernética.
A OpenAI afirmou que seus futuros modelos de IA poderão ser capazes de criar exploits funcionais de dia zero, visando sistemas de computador altamente protegidos. A tecnologia também poderá auxiliar na execução de ataques sofisticados contra empresas ou instalações industriais, projetados para causar danos reais.
As coisas estão evoluindo rapidamente. Em seu blog , a OpenAI mencionou que o desempenho em desafios de segurança do tipo "capture-the-flag" saltou de 27% no GPT-5 em agosto de 2025 para 76% no GPT-5.1-Codex-Max apenas três meses depois, em novembro de 2025.
A OpenAI agora parte do princípio de que cada novo modelo que desenvolve pode atingir o que chama de níveis "altos" de capacidade de cibersegurança. Isso significa sistemas capazes de criar exploits funcionais para vulnerabilidades até então desconhecidas em redes bem protegidas, ou de auxiliar em campanhas de intrusão complexas direcionadas a infraestruturas críticas.
A empresa apoiada pela Microsoft afirmou que está investindo no aprimoramento de seus modelos para trabalhos de segurança defensiva. A empresa está desenvolvendo ferramentas para ajudar as equipes de segurança a verificar códigos em busca de problemas e corrigir falhas de segurança. A OpenAI quer dar aos profissionais de segurança uma vantagem, já que geralmente eles são em menor número e têm poucos recursos.
É aqui que a coisa complica. O trabalho de cibersegurança defensiva e ofensiva utiliza os mesmos conhecimentos e métodos básicos. O que ajuda os defensores pode, com a mesma facilidade, ajudar os atacantes. A OpenAI afirma que não pode depender de uma única medida de proteção. É necessário que várias camadas de controles de segurança trabalhem em conjunto.
A empresa está utilizando restrições de acesso, segurança de infraestruturatron, controles no fluxo de informações e monitoramento constante. Também está treinando modelos para recusar solicitações que possam viabilizar ataques cibernéticos, mantendo-os úteis para trabalhos legítimos de segurança e educação.
Os sistemas de detecção monitoram atividades suspeitas em diversos produtos usando modelos avançados. Quando algo parece perigoso, o sistema bloqueia os resultados, alterna para um modelo menos robusto ou sinaliza a ocorrência para revisão humana.
A OpenAI trabalha com grupos especializados em testes de segurança que tentam romper todas as suas defesas. Eles simulam como um atacante determinado, com recursos consideráveis, poderia operar. Isso ajuda a encontrar pontos fracos antes que ameaças reais o façam.
Os riscos de cibersegurança decorrentes da IA preocupam pessoas em todo o setor. Como relatado anteriormente pela Cryptopolitan , hackers já utilizam tecnologias de IA para aprimorar seus ataques.
A empresa planeja um programa que dará aos usuários qualificados que trabalham com defesa cibernética acesso especial a recursos aprimorados em seus modelos mais recentes. A OpenAI ainda está definindo quais recursos podem ser amplamente disponibilizados e quais precisam de restrições mais rigorosas.
E depois há o Aardvark. Essa ferramenta de segurança, em testes privados, ajuda desenvolvedores e equipes de segurança a encontrar e corrigir vulnerabilidades em larga escala. Ela analisa o código em busca de pontos fracos e sugere correções. O sistema já descobriu novas vulnerabilidades em softwares de código aberto. A OpenAI planeja investir recursos significativos no fortalecimento do ecossistema de segurança em geral. Isso inclui oferecer cobertura gratuita para alguns projetos de código aberto não comerciais.
A OpenAI criará o Frontier Risk Council, um conselho que reunirá profissionais e especialistas experientes em segurança cibernética. O grupo começará com foco em segurança cibernética, mas se expandirá para outras áreas. Os membros do conselho ajudarão a definir os limites entre as capacidades úteis e o potencial uso indevido.
A empresa trabalha com outras empresas líderes em IA por meio do Frontier Model Forum. Essa organização sem fins lucrativos desenvolve um entendimento compartilhado sobre ameaças e melhores práticas. A OpenAI acredita que os riscos de segurança da IA avançada podem vir de qualquer sistema de IA importante do setor.
Pesquisas recentes mostraram que agentes de IA podem descobrir vulnerabilidades de dia zero que valem milhões emtracinteligentes de blockchain. Isso destaca como esses avanços tecnológicos podem ser uma faca de dois gumes.
A OpenAI trabalhou para fortalecer suas próprias medidas de segurança, mas a empresa enfrentou seus próprios problemas. A companhia lidou com diversas violações de segurança no passado. Isso demonstra a dificuldade de proteger sistemas e infraestrutura de IA.
A empresa afirma que este é um trabalho em andamento. O objetivo é dar vantagens aos defensores e fortalecer a segurança da infraestrutura crítica em todo o ecossistema tecnológico.
Cadastre-se no Bybit e comece a negociar com US$ 30.050 em presentes de boas-vindas