La Casa Blanca está considerando un plan para revisar algunos de los sistemas de inteligencia artificial más potentes antes de que se pongan a disposición del público.
La propuesta, publicada por The New York Times el 4 de mayo, introduciría la supervisión federal en un punto crítico del ciclo de vida de la IA, justo antes de su implementación. A las autoridades les preocupa cada vez más que los modelos de vanguardia sean capaces de identificardentexplotar las vulnerabilidades del software que sustenta la infraestructura esencial.
Un análisis publicado por The Conversation señala que cada vez hay más pruebas de que los sistemas de IA recientes pueden descubrir un gran número de vulnerabilidades en sistemas operativos y navegadores web. Esta capacidad, si bien es valiosa para la seguridad defensiva, también aumenta los riesgos si dichas herramientas se utilizan indebidamente o caen en manos equivocadas.
El debate sobre la política de seguridad cobró mayor urgencia después de que Anthropic decidiera retrasar el lanzamiento generalizado de su último modelo, Mythos. Las pruebas internas revelaron capacidades avanzadas de ciberseguridad, incluyendo la capacidad de identificardentvulnerabilidades. En respuesta, la empresa restringió el acceso a un grupo limitado de organizaciones responsables de infraestructuras críticas a través de su iniciativa «Proyecto Glasswing».
Según The Conversation, la Casa Blanca intervino cuando Anthropic exploró la posibilidad de ampliar el acceso, lo que indica un enfoque más activo en la supervisión de la IA, incluso cuando la política tecnológica en general ha seguido estando relativamente orientada al mercado.
Las preocupaciones no se limitan a una sola empresa o sistema. El Instituto de Seguridad de la IA del Reino Unido informó en una evaluación de abril que OpenAI GPT-5.5 demostró un rendimiento comparable en tareas avanzadas de ciberseguridad.
En una prueba destacada por el instituto, el modelo realizó ingeniería inversa de una máquina virtual personalizada y resolvió un desafío complejo en minutos, mucho más rápido que un experto humano utilizando herramientas profesionales.
«Una cuestión clave era si esto reflejaba un avance específico de un modelo o formaba parte de una tendencia más amplia», escribió el instituto en su informe. «Los resultados de una primera fase de control de GPT-5.5 sugieren lo segundo»
En conjunto, los resultados sugieren que estas capacidades se están convirtiendo en una característica común de los sistemas de IA más avanzados, en lugar de un avance aislado.
Las implicaciones van más allá de la tecnología y se adentran en la seguridad nacional. Investigadores citados por The Conversation advierten que grupos vinculados a estados podrían utilizar herramientas similares para llevar a cabo operaciones cibernéticas, potencialmente dirigidas contra infraestructuras o sistemas económicos.
Ya se observan indicios tempranos de este cambio. Anthropic ha denunciado que presuntos agentes respaldados por estados utilizan sus modelos en campañas de espionaje que afectan a decenas de organizaciones. Por su parte, Microsoft y OpenAI afirmaron en 2024 que grupos vinculados a gobiernos estaban aprovechando la IA para potenciar los ciberataques.
Al mismo tiempo, los investigadores siguen buscando la manera de controlar estos sistemas de forma fiable. Un trabajo citado por The Conversation sugiere que los filtros de seguridad aplicados tras el entrenamiento pueden eludirse, y que algunos modelos pueden parecer conformes sin eliminar por completo las funcionalidades de riesgo.
Esto ha llevado a que cada vez más responsables políticos opinen que las medidas de seguridad deben incorporarse durante el desarrollo del modelo en lugar de añadirse posteriormente.
La propuesta estadounidense está tomando forma dentro de un panorama regulatorio global más amplio y aún en evolución:
Los legisladores han comenzado a examinar estos temas con mayor detenimiento, con audiencias en el Congreso en abril sobre la seguridad y la gobernanza de la IA, aunque todavía no se ha presentado ninguna legislación integral al respecto.
De implementarse, un sistema de revisión previa a la liberación en Estados Unidos representaría un cambio hacia una intervención más temprana, situando la supervisión en el momento en que se pueden anticipar los riesgos, en lugar de después de que estos se materialicen.
Esta medida podría establecer un estándar global informal, sobre todo dada la concentración de los principales desarrolladores de IA en Estados Unidos. Al mismo tiempo, plantea la posibilidad de que las empresas trasladen parte del desarrollo o la implementación a regiones con menos restricciones.
El reto para los responsables políticos reside en equilibrar la innovación con la gestión de riesgos en un campo donde las capacidades avanzan rápidamente y las consecuencias de un mal uso podrían ser de gran alcance.
Por ahora, las medidas de seguridad más concretas siguen siendo voluntarias. Empresas como Anthropic están limitando el acceso a sistemas sensibles, mientras que organizaciones como el Instituto de Seguridad de la IA del Reino Unido continúan realizando evaluacionesdent .
El hecho de que Estados Unidos formalice su enfoque —y que otros países se alineen con él— será un factor clave para definir cómo se gobernará la IA en los próximos años.
Si estás leyendo esto, ya llevas ventaja. Mantente al día con nuestro boletín informativo.