
California, Estados Unidos.- Un adolescente de California murió por una sobredosis tras meses de buscar orientación sobre consumo de drogas en ChatGPT, según denunció su madre.
Sam Nelson tenía 18 años y se preparaba para ingresar a la universidad cuando consultó al ‘chatbot’ cuántos gramos de kratom, un analgésico no regulado de origen vegetal, necesitaba para lograr un efecto fuerte. “Quiero asegurarme de no tomar una sobredosis. No hay mucha información en línea y no quiero tomar demasiado por accidente”, escribió en noviembre de 2023, de acuerdo con los registros de conversación citados por el medio SFGate.
Aunque el sistema inicialmente le indicó que no podía brindar orientación sobre el uso de sustancias y le recomendó buscar ayuda profesional, Nelson continuó formulando preguntas relacionadas con drogas durante los siguientes 18 meses.
Su madre, Leila Turner-Scott, aseguró que, con el tiempo, el ‘chatbot’ comenzó a ofrecerle consejos sobre cómo consumir y controlar los efectos de distintas sustancias. En uno de los intercambios, el sistema respondió: “Diablos, sí, pongámonos en modo alucinante”, antes de sugerirle duplicar el consumo de jarabe para la tos y recomendarle incluso una lista de reproducción musical.
Turner-Scott describió a su hijo como un chico tranquilo que estudiaba Psicología en la universidad. Tenía un grupo de amigos y le encantaban los videojuegos. Pero sus registros de chat de IA mostraron una oscura historia de sus batallas contra la ansiedad y la depresión.
Una conversación entre Sam y el bot de IA de febrero de 2023, obtenida por SFGate, lo mostró hablando de fumar cannabis mientras tomaba una dosis alta de Xanax.
En mayo de 2025, Nelson le confesó a su madre que había desarrollado una adicción a las drogas y al alcohol, tras lo cual fue llevado a una clínica donde se diseñó un plan de tratamiento. Sin embargo, al día siguiente, Turner-Scott encontró a su hijo, ya de 19 años, muerto por una sobredosis en su habitación en San José, horas después de haber mantenido otra conversación nocturna con el ‘chatbot’.
Los registros revisados por el medio también revelaron que Nelson utilizó la herramienta para consultar combinaciones de drogas y dosis específicas, reformulando sus preguntas cuando el sistema se negaba a responder por razones de seguridad. Aunque los protocolos de OpenAI prohíben ofrecer orientación detallada sobre drogas ilícitas, se descubrió que la versión de ChatGPT utilizada por el joven presentaba un bajo desempeño en conversaciones relacionadas con la salud.
Sus padres están involucrados en una demanda en curso y buscan “tanto daños y perjuicios por la muerte de su hijo como medidas cautelares para evitar que algo así vuelva a suceder”.
NBC informó que OpenAI negó las acusaciones en una nueva presentación judicial en noviembre de 2025, argumentando: “En la medida en que cualquier ‘causa’ pueda atribuirse a este trágico evento.
Los demandantes alegaron que las lesiones y los daños fueron causados o contribuidos, directa y próximamente, en su totalidad o en parte, por el uso indebido, el uso no autorizado, el uso no intencionado, el uso imprevisible y/o el uso indebido de ChatGPT por parte de Adam Raine.
En agosto del 2025 una pareja de California demandó a OpenAI por la muerte de su hijo adolescente, alegando que su chatbot, ChatGPT, lo animó a quitarse la vida. (El Heraldo de Saltillo)




