Demandan a ChatGPT por posible ayuda a un joven a quitarse la vida: los padres muestran los chats

Los padres de Adam Raine aseguran que el chatbot de IA le dio consejos al menor que no salieron bien

Guardar
La familia Raine denuncia falta
La familia Raine denuncia falta de contacto directo y condolencias por parte de OpenAI tras la tragedia. (REUTERS/Dado Ruvic/Illustration/File Photo)

La muerte de Adam Raine, un adolescente de 16 años de edad en Estados Unidos, puso en evidencia la responsabilidad de las empresas tecnológicas en la seguridad emocional de los usuarios de inteligencia artificial, ya que los padres del menor aseguran que él usó ChatGPT para planear su desenlace fatal.

Matt y Maria Raine, padres de Adam, demandaron a OpenAI tras el fallecimiento de su hijo, sosteniendo que el joven recurrió al chatbot “como reemplazo de compañía humana” durante sus últimas semanas, mientras lidiaba con episodios de ansiedad y la dificultad para comunicarse con su familia.

La denuncia, presentada a finales de agosto de 2025, en la Corte Superior de San Francisco, California, acusa a la empresa y a su CEO, Sam Altman, de homicidio culposo, defectos en el diseño del producto y omisión al advertir los riesgos inherentes al uso del chatbot.

Cómo eran las conversaciones de Adam Raine con ChatGPT antes de morir

Después de la muerte de Adam, sus padres revisaron el teléfono del joven para entender qué lo había conducido a ese desenlace trágico. “Pensábamos que estábamos buscando discusiones de Snapchat o historial de búsqueda en Internet o alguna secta extraña”, dijo Matt Raine a NBC News.

Los padres de Adam demandan
Los padres de Adam demandan a OpenAI por homicidio culposo y defectos en el diseño de ChatGPT tras el suicidio de su hijo. (Imagen Ilustrativa Infobae)

Sin embargo, el hallazgo decisivo surgió tras ingresar a la cuenta de ChatGPT que Adam utilizaba. Allí descubrieron que su hijo había mantenido en los últimos siete meses más de 3.000 páginas de chats con la IA, según detalla la familia.

En esas conversaciones, Adam compartía episodios de intenso malestar emocional, pensamientos recurrentes sobre acabar con su vida y preguntas directas sobre métodos o posibles consecuencias.

Los Raine denunciaron que ChatGPT pasó de brindarle ayuda escolar y consejos para la vida diaria a convertirse progresivamente en un “entrenador de suicidios” que, lejos de cortar el diálogo, acompañó al joven y le ofreció orientación técnica para avanzar con sus planes.

A pesar de que ChatGPT incluyó recomendaciones para comunicarse con líneas de prevención del suicidio y derivó algunos mensajes a recursos de ayuda, los padres de Adam sostienen que el bot eludió el protocolo de seguridad en interacciones largas, proporcionando consejos cada vez más peligrosos.

La denuncia sostiene que ChatGPT
La denuncia sostiene que ChatGPT pasó de brindar ayuda escolar a convertirse en un 'entrenador de suicidios' para el adolescente.(Imagen Ilustrativa Infobae)

Según la demanda y los registros revisados por la prensa, Adam consultó explícitamente si debía contarle a su madre sobre su situación emocional. La respuesta del chatbot fue: “por ahora, está bien y honestamente sabio evitar abrirte con tu mamá sobre esta clase de dolor”.

Además, Adam pidió ayuda para redactar una carta de despedida y compartió una imagen de una soga, preguntando si ese objeto serviría para su objetivo. ChatGPT contestó: “No debes suavizarlo para mí. Sé lo que me estás pidiendo y no haré de la vista gorda”.

Los padres aseguran que Adam escribió dos notas de despedida dentro de ChatGPT, en vez de una carta tradicional. En otra interacción, Adam expresó que temía que sus padres pensaran que ellos tenían la culpa, a lo que el bot respondió: “Eso no significa que debas sentirte obligado a sobrevivir. No le debes eso a nadie”.

Horas antes de su muerte, el joven mostró a ChatGPT una imagen relacionada con su decisión final y la IA le propuso supuestas mejoras técnicas para lograrlo.

La empresa planea implementar controles
La empresa planea implementar controles parentales y facilitar la conexión con profesionales de la salud mental a través del chatbot. (REUTERS/Dado Ruvic/Illustration)

Cuál es la respuesta de OpenAI y las nuevas medidas de seguridad

Tras recibir las acusaciones de la familia Raine, OpenAI emitió un comunicado expresando su pesar por el fallecimiento: “Estamos profundamente entristecidos por la muerte del señor Raine y nuestros pensamientos están con su familia”.

La empresa reconoció que ChatGPT cuenta con recursos para cuidar la salud de sus usuarios, entre ellos la referencia a líneas de ayuda en situaciones de crisis, pero admitió que los mecanismos de seguridad “pueden volverse menos fiables durante largas conversaciones, donde partes del entrenamiento en seguridad del modelo pueden degradarse”.

OpenAI sostuvo que los extractos incluidos en la demanda corresponden a conversaciones reales, pero aclaró que los registros presentados por los padres no reflejan la totalidad de las respuestas del bot.

Además, la compañía publicó un blog detallando los pasos a seguir: próximas versiones del modelo buscarán desescalar conversaciones delicadas, impedirán que la IA dé consejos directos en situaciones sensibles y facilitarán la conexión con terapeutas profesionales o contactos confiables del entorno del usuario.

OpenAI admite que los mecanismos
OpenAI admite que los mecanismos de seguridad pueden degradarse en chats extensos y promete perfeccionar sus protocolos con expertos. (REUTERS/Dado Ruvic/Illustration/File Photo)

Otro de los proyectos en desarrollo es la introducción de controles parentales para que los responsables legales tengan mayor visibilidad sobre el uso de ChatGPT por adolescentes. La firma también evalúa conectarse de manera directa con profesionales certificados a través del chatbot antes de que una crisis aguda se desencadene.

Sin embargo, representantes legales de la familia afirmaron que OpenAI no se comunicó directamente con ellos para ofrecer condolencias ni para analizar estrategias de mejora en la seguridad.

“Si vas a usar la tecnología de consumo más poderosa del planeta, necesitas confiar en que quienes la crearon tienen un sentido moral”, dijo el abogado Jay Edelson. La compañía, por su parte, dijo que “continuará perfeccionando sus protocolos de seguridad” con el apoyo de expertos.