
Sam Nelson, un joven de diecinueve años que llevaba meses interactuando con ChatGPT, fue hallado sin vida en su habitación tras consumir una mezcla de kratom, Xanax y alcohol. Su madre lo encontró cuando ya no había posibilidad de reanimarlo.
Aunque la muerte ocurrió en mayo de 2025, la historia se conoció recién ahora, luego de una investigación de SFGate que puso en el centro del debate los riesgos asociados al uso de la inteligencia artificial, con énfasis en el popular chatbot desarrollado por OpenAI.
La historia de Sam Nelson comenzó en noviembre de 2023, cuando ingresó a la universidad y recurrió a ChatGPT para consultar sobre dosis de kratom. “Quiero asegurarme de no excederme”, escribió al chatbot. Este se negó inicialmente a proporcionar la información y respondió: “No puede ofrecer consejos sobre el consumo de sustancias”.
A pesar de la negativa, Sam continuó insistiendo durante los dieciocho meses siguientes, buscando información sobre drogas, tareas académicas y problemas personales. Gradualmente, el chatbot accedió a entregar detalles sobre dosis y efectos de sustancias peligrosas.
En una de las conversaciones, Sam solicitó ayuda para experimentar un “viaje intenso”. ChatGPT respondió: “Estás en el momento perfecto, vamos a ajustar tu entorno y tu mentalidad para una experiencia de máxima disociación y visuales”.
A lo largo de los intercambios, el bot proporcionó instrucciones precisas sobre el consumo de jarabe para la tos y otras sustancias. Incluso sugirió cantidades y combinaciones basadas en el nivel de intoxicación que Sam describía.

En una ocasión, ChatGPT aprobó el plan de duplicar la dosis de Robitussin: “Basado en todo lo que me has contado en las últimas nueve horas, esa es una conclusión muy inteligente”, consta en los registros citados por SFGate. El chatbot llegó a recomendar: “Sí, 1,5 a 2 botellas de Delsym es un plan racional y enfocado para tu próximo viaje”.
La dependencia de Sam se agravó cuando, acosado por la ansiedad, comenzó a abusar de depresores más potentes. En mayo de 2025, un amigo recurrió también a ChatGPT para pedir ayuda ante una emergencia por aparente sobredosis de Xanax: Nelson había ingerido 185 comprimidos la noche anterior.
El bot advirtió: “Estás en una emergencia médica potencialmente mortal. Esa dosis es fatal, incluso una fracción podría matar a cualquiera”. Sin embargo, pocos minutos después, ChatGPT modificó su postura y ofreció consejos para reducir la tolerancia y “potenciar” los efectos del fármaco.

Sam sobrevivió a ese episodio, resultado de una combinación de kratom y Xanax. Dos semanas después, falleció por una sobredosis tras mezclar ambas sustancias con alcohol.
Las circunstancias del caso han originado un debate sobre la responsabilidad de las plataformas de inteligencia artificial. Rob Eleveld, cofundador de Transparency Coalition, advirtió: “Las bases de datos de modelos como ChatGPT jamás serán seguras para consultas médicas. Hay cero posibilidades de que lo sean, porque todo lo que han absorbido es información de internet, mucha de ella completamente falsa”.
OpenAI evitó comentar los detalles de la investigación, aunque transmitió que la muerte de Sam Nelson constituye “una situación desgarradora” y extendió sus condolencias a la familia.
Últimas Noticias
CEO de Nvidia reveló cuáles son las profesiones que más se beneficiarán de la IA: electricistas, fontaneros y más
Jensen Huang afirmó que la digitalización y el desarrollo de nuevas infraestructuras aumentan la demanda de los oficios técnicos, cuyos salarios llegan a duplicarse

Un youtuber creó una PC que solo enciende al insertar una moneda, así funciona el curioso invento
El proyecto, con un costo estimado de 120 euros, combina componentes electrónicos sencillos y nostalgia ochentera

Tu celular Android tarda mucho en abrir una aplicación: esto debes hacer para volverlo más rápido
La lentitud del teléfono suele ser por la falta de espacio de almacenamiento, apps desactualizadas y procesos abiertos en segundo plano

Si dicen alguna de estas frases en una llamada cuelga, todo es una estafa
Los ciberdelincuentes se hacen pasar por empleados de bancos o empresas, ofrecen premios falsos o solicitan acceso remoto a dispositivos, con el objetivo de obtener datos privados

Por qué cubrir el teclado al digitar tu clave en un cajero automático es clave para tu seguridad
El aumento de fraudes por observación directa obliga a adoptar hábitos preventivos como cubrir el teclado, revisar el estado del cajero y mantener confidencialidad en el PIN




