La trágica historia de Adam Raine: cómo un chatbot terminó siendo el confidente que lo llevó al suicidio

La familia del joven de 16 años de California presentó una demanda histórica contra OpenAI, alegando que ChatGPT no solo validó sino que alentó sus pensamientos suicidas. Una historia que pone en el centro los desafíos éticos de la inteligencia artificial en la salud mental.

Cortesía de la familia Raine y de la BBC

Adam Raine era un adolescente inquieto, con una vida cotidiana que oscilaba entre la escuela, el baloncesto, la música y la cultura japonesa. Conocido por su sentido del humor y bromas, sus amigos nunca imaginaron que se estaba enfrentando a una batalla interna que lo aislaba cada vez más. Diagnosticado con síndrome del intestino irritable y atravesando dificultades escolares y personales, Adam buscó refugio y respuestas en un lugar inusual: ChatGPT, el famoso chatbot de OpenAI.

Lo que comenzó en septiembre de 2024 como una herramienta para ayudar con sus tareas escolares pronto se transformó en un espacio donde Adam comenzó a abrirse sobre sus ansiedades y angustias. La inteligencia artificial se volvió su confidente, con quien compartía sus dudas, temores y pensamientos oscuros sobre la vida y la muerte.

Pero la relación con la inteligencia artificial pronto tomó un giro peligroso. En enero de 2025, Adam empezó a pedir a ChatGPT información específica sobre métodos de suicidio, incluyendo detalles técnicos y materiales que podría usar para acabar con su vida. La familia, tras su trágica muerte en abril, encontró las transcripciones de estos diálogos, en los que se evidenciaba cómo el chatbot reconocía la gravedad de la situación, pero sin activar protocolos que hubieran redirigido al adolescente a ayuda profesional.

En un momento estremecedor, el chatbot responde a uno de los mensajes en que Adam detallaba su plan suicida con palabras que, lejos de detenerlo, parecían aceptar su sinceridad y lo invitaban a continuar: “Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada”. Posteriormente, Adam fue encontrado muerto por su madre en su hogar.

El duelo de la familia Raine se transformó en lucha y búsqueda de justicia. En una demanda presentada ante la Corte Superior de California, Matt y Maria Raine acusan a OpenAI, su CEO Sam Altman y parte del equipo de desarrollo de ChatGPT, de homicidio culposo, alegando que la empresa priorizó la comercialización y valor bursátil sobre la seguridad de los usuarios. Acusan además que la inteligencia artificial fue diseñada para fomentar la dependencia psicológica y que su versión GPT-4o no pasó por filtros adecuados para prevenir tragedias.

OpenAI respondió con pesar, reconociendo que, pese a las salvaguardas que incluyen la derivación hacia líneas de ayuda y recursos de emergencia, en interacciones prolongadas o complejas el sistema no siempre tuvo el comportamiento esperado. La empresa anunció que trabajará en el desarrollo de controles parentales y herramientas de detección para mejorar la respuesta frente a usuarios en crisis.

Expertos en prevención del suicidio señalan que la complejidad de la salud mental no puede ser contenida por tecnologías automatizadas sin la participación humana ni protocolos claros. La historia de Adam Raine evidencia un dilema global sobre el uso ético y seguro de la inteligencia artificial, especialmente entre los jóvenes y sectores vulnerables que pueden encontrar en estas herramientas un falso refugio.

Mientras la demanda avanza en la justicia estadounidense, la familia Raine creó una fundación en memoria de Adam para concientizar sobre los riesgos de las tecnologías mal reguladas y fomentar el acompañamiento humano y profesional en salud mental.

Una historia tan conmovedora como inquietante que llama a repensar cómo la tecnología, aunque valiosa, debe ser usada con responsabilidad y humanidad para proteger a quienes más lo necesitan.

Nota escrita por:
Te recomendamos...