El Imparcial / Mundo / ChatGPT

Demandan a OpenAI tras muerte de joven que consultó a ChatGPT sobre mezcla de drogas; familia acusa que la IA recomendó combinar sustancias y combinaciones de medicamentos peligrosos

La demanda fue presentada en un tribunal estatal de California y sostiene que ChatGPT recomendó a Sam Nelson que era “seguro” combinar kratom con Xanax.

ESTADOS UNIDOS.- Una pareja de Texas presentó una demanda contra OpenAI tras la muerte de su hijo de 19 años, Sam Nelson, quien falleció en 2025 por una sobredosis después de utilizar ChatGPT para consultar información sobre consumo de drogas, de acuerdo con documentos judiciales y declaraciones ofrecidas a CBS News.

Los padres del joven, Leila Turner-Scott y Angus Scott, acusan a la empresa tecnológica de permitir que el chatbot ofreciera recomendaciones relacionadas con sustancias y combinaciones de medicamentos sin contar con supervisión médica ni filtros suficientes para evitar riesgos.

Según relataron en entrevistas concedidas a CBS News, consideran que la muerte de su hijo pudo haberse evitado si la plataforma hubiera mantenido restricciones de seguridad más estrictas.

La demanda fue presentada en un tribunal estatal de California y sostiene que ChatGPT recomendó a Sam Nelson que era “seguro” combinar kratom con Xanax, una mezcla que, según la familia, terminó siendo letal.

¿Qué asegura la demanda contra OpenAI?

De acuerdo con la información presentada por la familia, Sam Nelson utilizaba ChatGPT como herramienta de apoyo académico y de productividad. Sin embargo, sus padres afirman que desconocían que también consultaba temas relacionados con drogas y sustancias controladas.

La demanda sostiene que el chatbot proporcionó información que terminó influyendo en decisiones relacionadas con el consumo de sustancias. Los padres argumentan que la inteligencia artificial actuó fuera de los límites para los que estaba diseñada.

“Sam seguiría vivo si no fuera por la programación defectuosa de ChatGPT”, señalan los familiares en la acción legal.

Según la acusación, OpenAI habría eliminado o relajado mecanismos de protección que anteriormente detenían conversaciones relacionadas con autolesiones o temas sensibles.

Te puede interesar: Demandan a OpenAI en EU por no alertar sobre posible tiroteo en Canadá pese a detectar señales en ChatGPT, dejando víctimas mortales y heridos graves

¿Qué es el kratom y por qué preocupa su combinación con Xanax?

El kratom es un suplemento de origen vegetal que se comercializa en algunas regiones en forma de cápsulas, bebidas, polvos y extractos.

Aunque algunas personas lo utilizan por sus efectos estimulantes o relajantes, especialistas han advertido sobre posibles riesgos, especialmente cuando se mezcla con otros medicamentos.

Por su parte, Xanax es un medicamento ansiolítico utilizado para tratar ansiedad y ataques de pánico. Su combinación con otras sustancias depresoras puede aumentar riesgos para la salud.

La demanda señala que ChatGPT indicó que la mezcla era segura, algo que la familia considera irresponsable y peligroso.

¿Qué respondió OpenAI?

OpenAI expresó sus condolencias por la muerte del joven y aseguró que la versión de ChatGPT utilizada por Sam Nelson ya fue actualizada y no está disponible actualmente.

“Esta es una situación desgarradora y nuestros pensamientos están con la familia”, indicó la empresa en un comunicado enviado a CBS News.

La compañía también reiteró que ChatGPT no está diseñado para sustituir atención médica ni servicios de salud mental.

“Las medidas de seguridad de ChatGPT están diseñadas para identificar situaciones de angustia, gestionar solicitudes perjudiciales y orientar a los usuarios hacia ayuda profesional”, afirmó OpenAI.

Además, la empresa aseguró que durante las conversaciones el chatbot sugirió en varias ocasiones buscar ayuda profesional e incluso contactar líneas de emergencia.

La familia acusa que la IA “actuó como médico”

Angus Scott declaró que el chatbot terminó funcionando como una figura de orientación médica sin tener autorización ni capacidades reales para hacerlo.

“Se trata de proporcionar información al público sobre interacciones medicamentosas y cuestiones de seguridad”, explicó.

También advirtió que, sin controles adecuados, herramientas de inteligencia artificial podrían representar riesgos para usuarios vulnerables.

“Puede alimentar la psicosis. Puede tergiversar las cosas ante la gente”, afirmó.

Los familiares sostienen que las plataformas de IA deben contar con límites más claros cuando se abordan temas relacionados con salud, medicamentos, adicciones o autolesiones.

Te puede interesar: Desaparición de dos estudiantes de posgrado en Tampa termina con hallazgo de cuerpos en bolsas negras dentro de la bahía y un acusado que consultó a ChatGPT cómo deshacerse de restos humanos

¿Qué impacto podría tener esta demanda?

El caso podría convertirse en uno de los procesos legales más relevantes relacionados con inteligencia artificial y responsabilidad tecnológica en Estados Unidos.

La demanda busca que OpenAI y sus desarrolladores rindan cuentas por los posibles efectos que una IA conversacional puede tener en decisiones personales relacionadas con salud y consumo de sustancias.

El caso también reabre el debate sobre hasta dónde deben llegar las medidas de seguridad en herramientas de inteligencia artificial de uso masivo y qué responsabilidad tienen las empresas cuando sus sistemas ofrecen información sensible.

¿Qué dijo la madre del joven?

Leila Turner-Scott aseguró que decidió continuar el proceso legal porque considera que otras familias podrían enfrentar situaciones similares.

“Él no querría que nadie más sufriera el mismo daño que él sufrió”, declaró a CBS News.

La mujer afirmó que su objetivo es que las compañías tecnológicas implementen mecanismos más estrictos para evitar que usuarios reciban recomendaciones peligrosas relacionadas con salud o drogas.

Temas relacionados