La compañía detrás de ChatGPT emitió el miércoles una severa advertencia sobre los peligros potenciales que acechan en su próxima ola de sistemas de inteligencia artificial, diciendo que podrían presentar serias amenazas a la ciberseguridad.
OpenAI afirmó que sus futuros modelos de IA podrían ser capaces de crear exploits de día cero funcionales dirigidos a sistemas informáticos altamente protegidos. La tecnología también podría ayudar a ejecutar ataques sofisticados contra empresas o instalaciones industriales, diseñados para causar daños reales.
Las cosas avanzan rápidamente. En su blog , OpenAI mencionó que el rendimiento en los desafíos de seguridad de captura de bandera aumentó del 27 % en GPT-5 en agosto de 2025 al 76 % en GPT-5.1-Codex-Max tan solo tres meses después, en noviembre de 2025.
OpenAI ahora asume que cada nuevo modelo que construye podría alcanzar lo que denomina niveles "altos" de capacidad de ciberseguridad. Esto significa sistemas capaces de crear exploits funcionales para vulnerabilidades previamente desconocidas en redes bien protegidas, o ayudar con complejas campañas de intrusión dirigidas a infraestructuras críticas.
La empresa, respaldada por Microsoft, afirmó estar invirtiendo en mejorar sus modelos para el trabajo de seguridad defensiva. La compañía está desarrollando herramientas para ayudar a los equipos de seguridad a detectar problemas en el código y corregir vulnerabilidades. OpenAI busca brindar una ventaja a los defensores, ya que suelen estar en inferioridad numérica y con escasez de recursos.
Aquí es donde la cosa se complica. El trabajo de ciberseguridad defensiva y ofensiva utiliza los mismos conocimientos y métodos básicos. Lo que ayuda a los defensores podría fácilmente ayudar a los atacantes. OpenAI afirma que no puede depender de una sola medida de protección. Necesita capas de controles de seguridad que trabajen juntas.
La empresa utiliza restricciones de acceso, una infraestructura de seguridad mástron, controles sobre el flujo de información y monitoreo constante. También entrena modelos para rechazar solicitudes que podrían permitir ciberataques, a la vez que los mantiene útiles para labores legítimas de seguridad y educación.
Los sistemas de detección detectan actividad sospechosa en los productos mediante modelos avanzados. Cuando algo parece peligroso, el sistema bloquea los resultados, cambia a un modelo más débil o lo marca para su revisión.
OpenAI trabaja con grupos especializados en pruebas de seguridad que intentan superar todas sus defensas. Simulan cómo podría operar un atacante decidido con grandes recursos. Esto ayuda a detectar puntos débiles antes de que lo hagan las amenazas reales.
Los riesgos de ciberseguridad que plantea la IA preocupan a todo el sector. Como informó Cryptopolitan anteriormente, los hackers ya utilizan tecnologías de IA para mejorar sus ataques.
La empresa planea un programa que otorga a los usuarios cualificados que trabajan en defensa de la ciberseguridad acceso especial a las capacidades mejoradas de sus modelos más recientes. OpenAI aún está determinando qué funciones pueden estar ampliamente disponibles y cuáles requieren restricciones más estrictas.
También está Aardvark. Esta herramienta de seguridad en pruebas privadas ayuda a desarrolladores y equipos de seguridad a encontrar y corregir vulnerabilidades a gran escala. Analiza el código en busca de debilidades y sugiere soluciones. El sistema ya ha descubierto nuevas vulnerabilidades en software de código abierto. OpenAI planea invertir importantes recursos en fortalecer el ecosistema de seguridad en general. Esto incluye ofrecer cobertura gratuita a algunos proyectos de código abierto no comerciales.
OpenAI creará el Consejo de Riesgo Fronterizo. Este reúne a defensores y profesionales con experiencia en ciberseguridad. El grupo comienza con la ciberseguridad, pero se expandirá a otras áreas. Los miembros del Consejo ayudan a definir los límites entre las capacidades útiles y su posible uso indebido.
La empresa colabora con otras empresas líderes en IA a través del Frontier Model Forum. Esta organización sin fines de lucro promueve un entendimiento común de las amenazas y las mejores prácticas. OpenAI considera que los riesgos de seguridad derivados de la IA avanzada podrían provenir de cualquier sistema de IA importante del sector.
Investigaciones recientes demostraron que los agentes de IA pueden descubrir vulnerabilidades de día cero por valor de millones entracinteligentes de blockchain. Esto pone de relieve cómo estas capacidades avanzadas tienen un impacto recíproco.
OpenAI ha trabajado para reforzar sus propias medidas de seguridad, pero la empresa se enfrentó a sus propios problemas. La firma lidió con múltiples brechas de seguridad en el pasado. Esto demuestra lo difícil que es proteger los sistemas y la infraestructura de IA.
La compañía afirma que este es un trabajo continuo. El objetivo es brindar ventajas a los defensores y fortalecer la seguridad de la infraestructura crítica en todo el ecosistema tecnológico.
Regístrate en Bybit y comienza a operar con $30,050 en regalos de bienvenida