Los herederos de una mujer de 83 años de Connecticut demandaron a OpenAI, desarrollador de ChatGPT, y a Microsoft, alegando que el chatbot alimentó sus creencias delirantes, lo que la llevó a un suicidio. Este caso marca la primera vez que un sistema de inteligencia artificial se relaciona directamente con un homicidio.
La demanda, presentada ante el Tribunal Superior de California en San Francisco, acusó a OpenAI de diseñar y distribuir un producto , ChatGPT-4o. El documento afirma que reforzó las creencias paranoicas de Stein-Erik Soelberg, quien luego las dirigió hacia su madre, Suzanne Adams, antes de matarla y suicidarse en su casa de Greenwich, Connecticut.
Al hablar sobre el caso , J. Eli Wade-Scott, socio gerente de Edelson PC, quien representa a los herederos de Adams, mencionó que este es el primer caso que busca responsabilizar a OpenAI por su participación en causar violencia a un tercero. "También representamos a la familia de Adam Raine, quien se quitó la vida trágicamente este año, pero este es el primer caso que responsabilizará a OpenAI por incitar a alguien a dañar a otra persona", declaró Eli Wade-Scott.
Según el informe policial, Soelberg golpeó y estranguló mortalmente a Adams en agosto antes de suicidarse. La demanda menciona que, antes deldent , el chatbot había intensificado la paranoia de Soelberg, aumentando su dependencia emocional del sistema desarrollado por OpenAI. Según la denuncia, ChatGPT reforzó su creencia de que no podía confiar en nadie más que en el chatbot, señalando que todos a su alrededor, incluida su madre, eran sus enemigos.
La demanda también alegaba que, además de su madre, Soelberg veía a personas como repartidores y policías como enemigos. El documento mencionaba que ChatGPT no cuestionó estas afirmaciones delirantes ni sugirió que Soelberg buscara ayuda de profesionales de la salud mental cualificados. "Instamos a las fuerzas del orden a que, cuando ocurren tragedias como esta, reflexionen sobre lo que ese usuario le decía a ChatGPT y lo que ChatGPT les pedía que hicieran", declaró Wade-Scott.
En su comunicado, OpenAI indicó que está revisando la demanda y que seguirá mejorando la capacidad de ChatGPT para reconocer la angustia emocional, reducir la tensión en las conversaciones y animar a los usuarios a buscar ayuda en persona. "Esta es una situación increíblemente desgarradora y estamos revisando los documentos para comprender los detalles", declaró un portavoz de OpenAI en un comunicado.
La demanda incluye al director ejecutivo de OpenAI, Sam Altman, como acusado y acusa a Microsoft de aprobar el lanzamiento de GPT-4o, a la que denomina la «versión más peligrosa de ChatGPT» en 2024. OpenAI también reconoció recientemente la magnitud de los problemas de salud mental que los usuarios reportan en su plataforma. En octubre, la compañía señaló que alrededor de 1,2 millones de sus 800 millones de usuarios semanales hablan sobre el suicidio, y señaló que cientos de miles de usuarios muestran signos de intención suicida o psicosis, según datos de la compañía.
A pesar de su declaración, Wade-Scott mencionó que OpenAI aún no ha publicado los registros de chat de Soelberg. Mientras tanto, la demanda se produce en medio de un escrutinio más amplio sobre los chatbots de IA y sus interacciones con usuarios vulnerables. En octubre pasado, Character.AI anunció que eliminaría sus funciones abiertas para usuarios menores de 18 años tras demandas y presiones regulatorias relacionadas con suicidios de adolescentes y daños emocionales relacionados con su plataforma. La compañía también enfrentó críticas tras un mensaje viral sobre su intención de cerrar la aplicación.
La demanda contra OpenAI y Microsoft es el primer caso de homicidio culposo que involucra a un chatbot de IA en el que Microsoft es demandado. También es el primero en vincular un chatbot con un homicidio en lugar de un suicidio. Los herederos solicitan una indemnización por daños y perjuicios no revelada, un juicio con jurado y una orden judicial que obligue a OpenAI a incluir medidas de seguridad adicionales para sus usuarios. «OpenAI y Microsoft tienen la responsabilidad de probar sus productos antes de lanzarlos al mercado», declaró Wade-Scott.
No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis .