El lunes, la Comisión Europea anunció que está dialogando con OpenAI y Anthropic sobre sus modelos de IA, pero ambas conversaciones no se parecen en nada.
Thomas Regnier, portavoz de la Comisión en Bruselas, declaró a la prensa que OpenAI fue la primera en ofrecer acceso a su modelo más reciente. La Comisión calificó la medida de proactiva.
Por otro lado, Anthropic se ha reunido con funcionarios cuatro o cinco veces, pero aún no se ha hablado del acceso a las maquetas.
“Con una de ellas (OpenAI), tenemos una empresa que se ofrece proactivamente a dar acceso a la compañía. Con la otra (Anthropic), mantenemos buenos intercambios, aunque todavía no estamos en una etapa en la que podamos especular sobre un posible acceso o no”, dijo durante la rueda de prensa.
El momento no es casual. Los gobiernos de todo el mundo están prestando atención a los sistemas avanzados de IA.
Este año entró en vigor la Ley de IA de la UE, que se está implementando por fases. La normativa establece reglas basadas en el riesgo para los proveedores de IA que operan en Europa.
Las empresas no están obligadas a entregar al gobierno modelos para su revisión antes de lanzarlos al mercado, pero está claro que la Comisión quiere saber más sobre lo que está por venir.
OpenAI y Anthropic son las dos mayores empresas estadounidenses que trabajan en inteligencia artificial de vanguardia.
Sus sistemas de IA son cada vez más capaces, y los reguladores se esfuerzan por averiguar qué significa eso realmente.
El servicio audiovisual de la Comisión incluyó el debate sobre OpenAI y Anthropic bajo el apartado de "Ciberseguridad" en la agenda de la sesión informativa del mediodía del 11 de mayo. Aparece junto a la política de defensa y la migración.
Mientras Bruselas dialoga, Washington podría imponer una medida.
La Casa Blanca está considerando un plan para revisar los modelos de IA más potentes antes de que se hagan públicos.
Esa idea cobró fuerza después de que Anthropic restringiera el acceso generalizado a su último modelo, Mythos, cuando las pruebas internas demostraron que podía encontrar fallos de software explotables a gran escala.
El Instituto de Seguridad de la IA del Reino Unido se topó con problemas similares en abril cuando evaluó el GPT-5.5 de OpenAI.
Según los hallazgos Cryptopolitan anteriormente publicados,
Si estás leyendo esto, ya llevas ventaja. Mantente al día con nuestro boletín informativo.