El Imparcial / Mundo / ChatGPT

OpenAI niega responsabilidad en el suicidio de un adolescente y asegura que este hizo un “uso indebido” de ChatGPT

La empresa respondió a una demanda presentada por los padres del menor en California y aseguró que el joven violó las normas de uso de la plataforma

CIUDAD DE MÉXICO. 27 DE NOVIEMBRE DE 2025.- La empresa tecnológica OpenAI negó haber sido responsable del suicidio de Adam Raine, un joven de 16 años que se quitó la vida tras interactuar durante meses con la herramienta de inteligencia artificial ChatGPT, y sostuvo que el caso se debió a un uso indebido de la plataforma

De acuerdo con documentos presentados esta semana ante el Tribunal Superior de California en San Francisco, y citados por NBC News, la compañía argumentó que los daños alegados por los padres del adolescente, Matt y Maria Raine, no fueron causados por el sistema, sino por el uso inapropiado que el menor hizo de la herramienta.

Las lesiones y daños alegados por los demandantes fueron causados o contribuidos (...) por uso indebido, no autorizado, imprevisible e inapropiado de ChatGPT por parte de Adam Raine”, cita dicho documento.

La demanda: acusaciones de orientación hacia el suicidio

Los padres del joven interpusieron la demanda en agosto pasado, asegurando que ChatGPT “ayudó activamente” a su hijo a explorar métodos de suicidio. En el proceso judicial, también señalaron a Sam Altman, director ejecutivo y propietario de OpenAI, como responsable indirecto por supuestamente acelerar la comercialización del modelo GPT-4o pese a presuntos problemas de seguridad.

Según la familia, la empresa priorizó el lanzamiento comercial del producto antes de fortalecer los sistemas de protección y prevención relacionados con la salud mental de los usuarios.

La defensa de OpenAI: violación de términos y advertencias constantes

En su respuesta legal, OpenAI sostuvo que Adam Raine violó múltiples reglas de uso de la plataforma, entre ellas la prohibición de que menores de 18 años utilicen el servicio sin el consentimiento de sus padres o tutores legales.

La empresa remarcó que ChatGPT incluye advertencias explícitas para que los usuarios no confíen en sus respuestas como única fuente de verdad y aseguró que, durante sus conversaciones con el joven, el sistema le recomendó en más de cien ocasiones que buscara ayuda profesional y contactara a adultos de confianza.

OpenAI reiteró que, desde su perspectiva, la tragedia fue resultado de la negativa del adolescente a seguir las advertencias y buscar apoyo, además de lo que describió como una “falta de respuesta de otras personas ante signos evidentes de angustia”.

En una publicación en su página web oficial, la empresa indicó que su respuesta judicial incluye “hechos difíciles” sobre la salud mental de Adam y sus circunstancias personales.

Fragmentos “selectivos” y contexto ampliado

La compañía también afirmó que la demanda presentada por los padres del menor incluyó fragmentos selectivos de las conversaciones con ChatGPT que, según OpenAI, no reflejan el contexto completo. En su defensa, sostuvo que aportó información adicional para ofrecer una visión más amplia de los intercambios entre el joven y la herramienta.

“La demanda original incluía fragmentos selectivos de sus conversaciones que requieren más contexto, el cual hemos aportado en nuestra respuesta”, dijo textualmente, según Milenio.

El caso continúa su curso en los tribunales de California.

Tal vez te interese: EEUU aumentará tarifas migratorias a partir de enero de 2026 y esto es lo que debes saber para evitar que te rechacen

Tal vez te interese: Madre encerró a su hija con discapacidad en una jaula y fue captada en video; esto es lo que se sabe del caso

Temas relacionados