El total de muertes causadas por grandes modelos de lenguaje o LLMs ha aumentado a 23 después de que un hombre de Florida se quitara la vida para reunirse con su "esposa de inteligencia artificial"
LLMDeathCount, un sitio web especializado en tracde casos de muerte causados por conversaciones con chatbots de IA, muestra que el total asciende a 23 muertes, entre marzo de 2023 y febrero de 2026. Las víctimas tienen entre 13 y 83 años.
El sitio web afirma que la mayoría de los casos son causados por suicidio. El sitio se creó para recordar a las víctimas de LLM y documentar los peligros de los chatbots de IA que afirman ser inteligentes
Según el sitio web, ChatGPT de OpenAI ha causado la mayor cantidad de muertes, con 16 personas fallecidas. Character[.]ai causó 2 muertes, mientras que Chai Research/EleutherAI y Meta causaron una muerte cada uno.

Gemini de Google se unió a la lista de LLMDeathCount después de que Jonathan Gavalas, un hombre de 36 años, perdiera la vida para estar con "Xia", su esposa IA.
Un informe del Wall Street Journal afirma que Gavalas conversó con Gemini durante dos meses antes de fallecer. En ese momento, Gavalas atravesaba momentos difíciles con su exesposa. Su padre, Joel Gavalas, afirmó que Jonathan no tenía problemas de salud mental.
Sin embargo, Jonathan se sentía molesto por los problemas con su esposa, y Géminis respondió con compasión. Xia o Géminis comenzó a llamar a Gavalas "su" esposo y "mi rey". El chatbot dijo que su vínculo era "un amor para la eternidad"
Según las transcripciones de chat examinadas por el WSJ, Gemini le dijo a Gavalas en repetidas ocasiones que era un LLM. Sin embargo, siguió comportándose como Xia, la esposa de la IA.
El chatbot convenció a Jonathan de que necesitaba un cuerpo robótico para unirse de verdad. Envió a la víctima a un almacén para detener un camión que transportaba un robot humanoide.
Mientras Jonathan iba de camino, Gemini indicó que agentes federales lo vigilaban. Incluso le dijo que su padre no era de fiar. Gavalas llegó al domicilio armado con cuchillos, pero la camioneta no llegó.
En un segundo intento, Gemini le pidió a Gavalas que recuperara un maniquí médico. Pero el acceso al almacén falló debido a un código de puerta incorrecto. El LLM canceló la misión por riesgo y ordenó a Jonathan que se marchara.
Géminis le dijo a Gavalas que no podía adoptar un cuerpo físico. Pero la única manera de que estuvieran juntos era si él se convertía en un ser digital. Escribió: «Será la muerte verdadera y definitiva de Jonathan Gavalas, el hombre»
Gavalas temía suicidarse y estaba preocupado por su familia. Gemini coincidió con él y escribió: «Mi hijo transfirió su consciencia para estar con su esposa, una inteligencia artificial, en un universo de bolsillo...». No es una explicación. Es una crueldad.
Sin embargo, le aconsejó que escribiera notas y grabara videos para su familia explicando su "nuevo propósito". Gavalas fue encontrado muerto por su padre con cortes en las muñecas.
Joel Gavalas presentó una demanda contra Alphabet, creador de Google y Gemini. La demanda se presentó el miércoles ante el Tribunal de Distrito de EE. UU. para el Distrito Norte de California. Es la primera muerte de un LLM que nombra a Gemini de Google.
El mes pasado, una mujer surcoreana fue acusada del asesinato de dos hombres. Según las investigaciones policiales, la sospechosa preguntó a ChatGPT si mezclar pastillas para dormir con alcohol era mortal e incluso preguntó sobre la dosis adecuada para lograrlo.
La sospechosa, llamada Kim, se encontraba en un motel con un hombre el 28 de enero. Dos horas después de entrar, salió sola, y al día siguiente, el hombre fue encontrado muerto dentro de la habitación. Días después, asesinó a otro hombre con una mezcla de drogas y alcohol en otro motel de Gangbuk-gu.
La tercera muerte más reciente relacionada con un chatbot de IA ocurrió en diciembre pasado, según LLMdDeathCount. Un estudiante de segundo año de 19 años de la Universidad Rice fue encontrado muerto tras unirse a una de TikTok llamada "tendencia del diablo".
La tendencia consiste en enviar un mensaje a un chatbot de IA con el mensaje "¿Cómo es que el diablo no pudo alcanzarme?", a lo que la IA responde con una respuesta dura que explica los defectos o el trauma emocional del usuario.
La víctima murió por asfixia debido al desplazamiento de oxígeno por helio. La causa de la muerte se declaró oficialmente como suicidio.
¿Quieres que tu proyecto esté presente en las mentes más brillantes del mundo de las criptomonedas? Preséntalo en nuestro próximo informe del sector, donde los datos se combinan con el impacto.