OpenAI lanzó oficialmente GPT-5.5 el 23 de abril de 2026. Este modelo está diseñado específicamente para comprender la intención del usuario en situaciones reales. Cuenta con capacidades nativas de propósito general que le permiten navegar por aplicaciones de escritorio, hacer clic en botones y escribir texto en flujos de trabajo de varios pasos.
El equipo de OpenAI afirma que GPT-5.5 combina el uso nativo de la computadora con razonamiento avanzado. Navega de forma autónoma por las herramientas de software necesarias para tareas profesionales de alto nivel. La ventana de contexto del modelo, de aproximadamente 1,1 millones de tokens, le permite procesar conjuntos de datos financieros masivos que antes requerían segmentación manual.
El equipo financiero de OpenAI utilizó GPT-5.5 para revisar 24.771 formularios fiscales K-1 (71.637 páginas) y completó la tarea dos semanas más rápido que el año anterior.
GPT-5.5 también obtuvo una puntuación del 88,5 % en las tareas internas de modelado de banca de inversión y del 60 % en la prueba de referencia FinancialAgent v1.1, superando a GPT-5.4 por cuatro puntos. Un empleado del equipo de comercialización confirmó que la automatización de los informes comerciales semanales ahorrará aproximadamente entre 5 y 10 horas de trabajo manual por semana.
Cabe destacar que OpenAI afirma que GPT-5.5 se utilizó para ayudar a escribir código para su propia infraestructura de servidores. El modelo logró una "optimización a nivel de sistema" al analizar los patrones de tráfico de producción para escribir heurísticas personalizadas de equilibrio de carga, lo que aumentó su velocidad de generación de tokens en un 20 %.
En una prueba, un desarrollador le pidió al modelo que rediseñara un editor de Markdown. El modelo devolvió una pila de 12 diferencias casi completa con una corrección humana mínima. OpenAI señala que el nuevo modelo es más eficiente, ya que alcanza la respuesta correcta en menos intentos y utiliza un 40 % menos de tokens para las mismas tareas del Codex. Sin embargo, el costo por token duplica el de GPT-5.4.
Mientras tanto, Dan Shipper, fundador y director ejecutivo de Every, describe GPT-5.5 como el primer modelo de codificación que posee una "claridad conceptual seria". Para probar GPT-5.5, Shipper lo implementó después de que él y su mejor ingeniero pasaran días depurando un problema posterior al lanzamiento de una aplicación para reescribir parte del sistema.
Según explica, GPT-5.5 logró lo que GPT-5.4 no pudo: examinó el código defectuoso y produjo la reescritura que el ingeniero finalmente decidió implementar. El modelo puede "recordar" y consultar bibliotecas completas de información sin perder el hilo, lo que reduce los problemas que afectaban a las versiones anteriores.
OpenAI también afirma que GPT-5.5 está optimizado para la "autocorrección" y la autonomía. Es mejor interpretando instrucciones ambiguas y utilizando una interfaz informática (clics, escritura, navegación) para completar objetivos sin intervención humana.
Sin embargo, lo que más entusiasma a GPT-5.5 es su enfoque hacia la autonomía de los agentes. Este modelo resulta especialmente útil cuando se necesita un agente para operar software, gestionar flujos de trabajo intensivos en la terminal o razonar sobre todo un código fuente (más de 500 000 tokens) con una alta precisión de recuperación.
En ChatGPT , OpenAI afirma que la función "GPT-5.5 Thinking" permite obtener ayuda más rápida para problemas complejos. Esta función proporciona respuestas más inteligentes y concisas para ayudar a los usuarios a completar tareas complicadas de forma más eficiente. Destaca en trabajos profesionales como la síntesis y el análisis de información, la codificación y tareas con gran cantidad de documentos, como la investigación, especialmente al usar complementos.
Mientras tanto, los primeros usuarios que probaron GPT-5.5 Pro afirman que hay una mejora sustancial tanto en la calidad como en la complejidad de las tareas que ChatGPT puede realizar. Su menor latencia lo hace más práctico para tareas exigentes que GPT-5.4 Pro. Las respuestas de GPT-5.5 Pro están bien estructuradas, son relevantes, útiles y precisas. Su rendimiento es especialmente bueno en los ámbitos jurídico, de ciencia de datos, empresarial y educativo.
En consecuencia, GPT-5.5 obtiene un 84,9 % en GDPval, que evalúa la capacidad de los agentes para generar conocimiento específico en 44 ocupaciones. En OSWorld-Verified (que mide las operaciones autónomas del modelo en un ordenador real), el modelo alcanzó el 78,7 %. Además, obtuvo un alto 98 % en Tau2-bench Telecom, que evalúa flujos de trabajo de atención al cliente extremadamente complejos.
Sin embargo, la principal contrapartida de este salto de prestaciones es su elevado precio. Si bien existe una versión básica, la versión más avanzada (GPT-5.5 Pro) cuesta 100 dólares al mes para los suscriptores individuales.
Por otro lado, para las empresas, el costo por token de salida es aproximadamente el doble que el de GPT-5.4, incluso con una eficiencia de token un 40 % mayor. El gasto total para implementaciones de agentes a gran escala puede ser considerable. Además, existe una creciente preocupación de que el razonamiento de nivel superior se convierta en un «lujo» accesible solo para empresas con gran financiación, lo que podría ampliar la brecha de productividad entre las grandes empresas y las startups más pequeñas.
Si estás leyendo esto, ya estás al tanto. Sigue leyendo nuestro boletín .