Caitlin Kalinowski, exjefa de robótica de OpenAI, renunció a su cargo tras trabajar en la empresa poco más de un año. Kalinowski expresó su preocupación por el uso de las herramientas de inteligencia artificial de la compañía por parte del ejército estadounidense para la vigilancia nacional y para sistemas automatizados y específicos en armas estadounidenses.
Caitlin Kalinowski, jefa de ingeniería robótica y de hardware de OpenAI, dejó la empresa de inteligencia artificial después de servir desde noviembre de 2024. Kalinowski anunció su renuncia el 7 de marzo, citando preocupaciones sobre un acuerdo alcanzado entre OpenAI y el Departamento de Defensa de EE. UU. en febrero.
Renuncié a OpenAI. Me importa mucho el equipo de Robótica y el trabajo que desarrollamos juntos. No fue una decisión fácil. La IA desempeña un papel importante en la seguridad nacional. Pero la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son..
– Caitlin Kalinowski (@kalinowski007) 7 de marzo de 2026
Según Kalinowski, su renuncia se debió a la intención del Departamento de Defensa de EE. UU. de utilizar herramientas y capacidades de IA para vigilar a ciudadanos estadounidenses sin supervisión judicial. La exempleada de OpenAI escribió en X que la IA desempeña un papel vital en la seguridad nacional.
Explicó que el Departamento de Defensa de EE. UU. pretende utilizar la IA para vigilancia y armas autónomas, una decisión con la que no está de acuerdo. Afirmó que su decisión "se basó en principios, no en personas" y que estaba orgullosa de lo que el equipo de OpenAI había desarrollado durante su tiempo en la empresa.
En febrero, el Pentágono estadounidense intensificó las conversaciones con las principales empresas de inteligencia artificial para implementar modelos automatizados en sistemas clasificados. Cryptopolitan Informó que el Pentágono estaba impulsando conversaciones con Anthropic y OpenAI para incorporar herramientas de IA en redes militares clasificadas.
Emil Michael, director de tecnología del Pentágono, dijo en una reunión en la Casa Blanca con líderes tecnológicos que el ejército quiere que los modelos de IA operen en redes clasificadas y no clasificadas sin limitaciones ni restricciones.
Las negociaciones entre el gobierno estadounidense y Anthropic se toparon con un obstáculo, ya que sus líderes han establecido límites firmes respecto a que su tecnología no se utilizará en operaciones de vigilancia nacional ni en sistemas de armas autónomas de puntería. La compañía defi ultimátum del Pentágono de eliminar las protecciones de IA a finales de febrero.
El director ejecutivo de Anthropic, Dario Amodei, se mantuvo firme y se negó a permitir que la tecnología de la compañía se utilizara en expediciones militares. En respuesta, Trump ordenó a todas las agencias federales que dejaran de usar la tecnología de Anthropic a finales de febrero.
El Departamento de Defensa llegó a un acuerdo con OpenAI que ha generado críticas. Sam Altman mencionó que el acuerdo parecía bastante oportunista y aclaró que la compañía ha impuesto restricciones sobre el uso de sus herramientas de IA en operaciones militares.
Sin embargo, la impugnación de Kalinowski alega que el anuncio fue apresurado, sin las garantías necesarias. Añadió que su salida se basó en preocupaciones de gobernanza, demasiado importantes como para precipitarse.
OpenAI confirmó la salida de Kalinowski en un comunicado, pero afirmó que los vínculos de la compañía con los departamentos de defensa allanan el camino para el uso responsable de herramientas de IA en la seguridad nacional.
En febrero, OpenAI anunció la implementación de una versión personalizada de ChatGPT en GenAI.mil, la plataforma segura de inteligencia artificial empresarial del Departamento de Guerra. La compañía señaló que sus colaboraciones con los departamentos militares y de defensa se basan en el papel crucial de la inteligencia artificial en la protección de las personas y la prevención de conflictos.
La fricción entre el gobierno estadounidense y las empresas de IA en torno a los avances de la IA militar también ha provocado que más investigadores abandonen sus empresas. Uno de los principales investigadores de Anthropic en materia de protección renunció con la siguiente declaración: «El mundo está en peligro»
Otro investigador de OpenAI también renunció a su cargo, diciendo que la tecnología de IA tiene una forma de controlar a los seres humanos que los desarrolladores no pueden entender ni prevenir.
Zoë Hitzig, exinvestigadora de OpenAI, también dejó la empresa el 11 de febrero. Renunció el mismo día que OpenAI anunció el inicio de las pruebas de anuncios en su LLM ChatGPT. Afirmó que la empresa de inteligencia artificial estaba cometiendo el mismo error que Facebook.
Hitzig expresó su preocupación por el hecho de que el rol único de ChatGPT como confidente de revelaciones profundamente personales (temores médicos, problemas de relación, creencias religiosas) hace que la segmentación de anuncios sea especialmente riesgosa.
Únase a una comunidad premium de comercio de criptomonedas gratis durante 30 días (normalmente $100/mes).