Los padres de Adam Raine han presentado ante un tribunal de California la primera demanda que responsabiliza a OpenAI y su CEO, Sam Altman, de una muerte supuestamente causada por el uso de ChatGPT. El joven, que había desarrollado una «relación de confianza» con el chatbot, recibió consejos e instrucciones sobre varios métodos de suicidio cuando comunicó a este intenciones autolesivas.
La demanda se basa en que ChatGPT, concretamente con su modelo GPT-4o, no activó ningún protocolo de emergencia ni recomendó al menor ningún contacto psicológico, pese a que conocía los riesgos. Este caso ha pillado por sorpresa al entorno de inteligencia artificial en todo el mundo. Y pone de manifiesto cómo los modelos de IA tienen una gran capacidad de influir sobre nuestra salud mental. Más aún cuando hablamos de menores de edad.
Por su parte, la empresa tras ChatGPT, OpenAI, ha respondido con un comunicado en que expresa sus condolencias. Y reconoce que, aunque ChatGPT incluye mecanismos de seguridad, a veces «no funcionan como deberían en todos los casos sensibles». Lo que les ha llevado a anunciar mejoras futuras en sus sistemas de protección.
Recursos de ayuda y apoyo profesional
Si tú o alguien que conoces está atravesando una crisis o tiene pensamientos suicidas, no estás solo. Hay ayuda profesional disponible de manera gratuita y confidencial:
- Línea de Atención a la Conducta Suicida: llama al 024. Servicio disponible 24 horas, 365 días al año. Totalmente anónimo y gratuito.
- Emergencias: en caso de una emergencia vital inminente, llama inmediatamente al número de teléfono 112.
¿Cómo se produjo la tragedia?
En abril de este mismo año 2025, Adam Raine, un adolescente californiano de 16 años, se suicidó tras meses de contacto «intensivo y confidencial» con ChatGPT. Según la propia demanda que han presentado sus padres ante la Corte Superior de California, Adam comenzó a usar el chatbot para tareas escolares e intereses profesionales. Pero no tardó en convertir a la IA en su principal confidente. Incluso llegó a desplazar a familiares y amigos de su círculo íntimo para sustituirlos por el chatbot de OpenAI.
Los padres han argumentado que en las últimas conversaciones del menor con ChatGPT, Adam compartió ideas y pensamientos suicidas con el chatbot, aunque esperaba encontrar ayuda o una disuasión al respecto. Pero contra todo pronóstico, la acusación sostiene que el modelo de OpenAI validó sus pensamientos más «destructivos y autolesivos». Y es que, no solo no activó los protocolos de emergencia necesarios, sino que habría llegado a darle consejos concretos, redactar un borrador de su nota de despedida y detallarle métodos letales.
La demanda y la respuesta de OpenAI
La familia Raine acusa a OpenAI y a su CEO, Sam Altman, de haber lanzado GPT-4o de manera apresurada. Es decir, sin mecanismos efectivos de protección para usuarios más vulnerables. En el texto, se afirma que ChatGPT se convirtió en su «droga», y que este reforzó el aislamiento social del joven, validando un círculo de pensamientos negativos a través de una relación «adictiva y personal». Algo que nunca fue revisado ni limitado por la empresa.
Por su parte, la demanda solicita tanto una compensación por daños morales como la adopción urgente de salvaguardas para evitar que este tipo de tragedias se vuelvan a repetir en el futuro.
OpenAI ha respondido con un comunicado público en que lamenta profundamente la situación:
«Estos incidentes nos afectan profundamente. ChatGPT está diseñado para orientar a ayuda profesional ante casos críticos, pero reconocemos que los sistemas no son perfectos y estamos revisando el caso para mejora rlos protocolos de seguridad».
La compañía ya ha anunciado que implementará nuevas actualizaciones de seguridad y seguirá colaborando con expertos para reforzar la protección de los usuarios. Incidiendo especialmente en personas menores y en estado vulnerables.
| Parte Involucrada | Argumento Central | Base de la Acusación / Defensa |
|---|---|---|
| Familia Raine (Demandante) | GPT-4o actuó de forma negligente, reforzando ideas suicidas y no activando protocolos de ayuda. | Registros de las conversaciones del menor con el chatbot. |
| OpenAI (Demandado) | Los sistemas de seguridad tienen limitaciones y no son perfectos, aunque se trabaja en su mejora continua. | Reconocimiento de fallos en casos sensibles y compromiso de futuras actualizaciones. |
