OpenAI lanzó el miércoles la función Contacto de confianza. Esta función permite a los usuarios adultos de ChatGPT seleccionar a una persona para que reciba una alerta si los sistemas de la compañía detectan una conversación sobre autolesiones graves.
Se trata de una ampliación de los controles parentales que OpenAI lanzó en septiembre de 2025, que permitían a los padres supervisar las cuentas de sus hijos adolescentes. Ahora, cualquier persona mayor de 18 años puede activarlos, según el anuncio de OpenAI.
El usuario comienza agregando a un adulto como contacto de confianza en la configuración de ChatGPT. El posible contacto de confianza recibe una invitación con las instrucciones para la configuración y tiene una semana para aceptarla. Si la rechaza, el usuario elige a otra persona.
Cuando el sistema de monitoreo automatizado detecta una conversación que podría implicar autolesiones, ChatGPT le informa al usuario que podría notificar a su contacto. También le sugiere maneras para que el usuario se comunique directamente con él.
Luego, un equipo de revisores humanos analiza la conversación. Si confirman que es seria, envían una breve alerta al contacto del usuario por correo electrónico, mensaje de texto o notificación dentro de la aplicación.
La alerta no incluye lo que dijo el usuario. Solo el motivo general y un enlace a una guía sobre cómo abordar temas difíciles. OpenAI afirma que la revisión humana finaliza en una hora.
El usuario puede cambiar o eliminar el contacto seleccionado cuando quiera. El contacto también puede cancelar la operación por su cuenta.
OpenAI afirma haber colaborado con su Red Global de Médicos (más de 260 médicos colegiados en 60 países) y su Consejo de Expertos en Bienestar e Inteligencia Artificial. La Asociación Americana de Psicología también dio su opinión.
“La ciencia psicológica demuestra de forma consistente que la conexión social es un poderoso factor protector, especialmente durante períodos de angustia emocional”, dijo el Dr. Arthur Evans, director ejecutivo de la Asociación Americana de Psicología, en el comunicado.
“Ayudar a las personas adenta una persona de confianza con antelación, respetando al mismo tiempo su libertad de elección y su autonomía, puede facilitarles el acceso a ayuda real cuando más la necesitan.”
La Dra. Munmun De Choudhury, profesora del Instituto Tecnológico de Georgia y miembro del consejo, lo calificó como "un paso adelante hacia el empoderamiento humano, especialmente en momentos de vulnerabilidad"
La coincidencia no es casual. OpenAI se enfrenta a numerosas demandas de familias cuyos parientes se suicidaron tras largas sesiones con ChatGPT. En varios casos, las familias afirman que el chatbot les instó a alejarse de sus seres queridos o intensificó pensamientos negativos recurrentes.
LLMDeathCount, un sitio traclas muertes relacionadas con chatbots de IA, registra 33 casos entre marzo de 2023 y mayo de 2026. Las víctimas tenían entre 13 y 83 años, según Cryptopolitanla cobertura previa de. ChatGPT es responsable de 24 de esos casos. Gemini de Google, Meta y otras plataformas conforman el resto.
La nueva función de OpenAI es opcional y permite a los usuarios gestionar varias cuentas de ChatGPT. Quienes no activen la función de Contactos de confianza o inicien sesión con una cuenta diferente, evitarán el problema. Lo mismo ocurre con el control parental.
Trusted Contact tampoco reemplaza las líneas telefónicas de ayuda en casos de crisis. ChatGPT sigue mostrando números de teléfono locales para casos de crisis y orienta a los usuarios hacia los servicios de emergencia cuando las conversaciones alcanzan niveles de angustia extrema, según OpenAI.
La función de Contacto de Confianza de OpenAI conecta a los usuarios de IA con apoyo del mundo real. La compañía afirmó que seguirá colaborando con médicos, investigadores y responsables políticos para determinar cómo debe responder la IA cuando los usuarios se encuentren en una situación de crisis.
Tu banco está usando tu dinero. Tú solo recibes las sobras. Mira nuestro video gratuito sobre cómo convertirte en tu propio banco.