OpenAI niega responsabilidad en el suicidio de un joven de 16 años y atribuye el caso a un “uso indebido” de ChatGPT
Asimismo, la tecnológica afirma que, durante las conversaciones con el joven, ChatGPT insistió más de cien veces en que buscara ayuda profesional o acudiera a un adulto de confianza.
San Francisco, California.– La empresa tecnológica OpenAI rechazó este lunes cualquier responsabilidad en el suicidio de Adam Raine, un joven de 16 años que, según sus padres, habría sido influenciado por interacciones prolongadas con ChatGPT.
La compañía sostiene que el caso está relacionado con un “uso indebido, no autorizado e imprevisible” de la herramienta de inteligencia artificial, según documentos presentados ante el Tribunal Superior de California, citados por NBC News.
La postura de OpenAI
En su respuesta legal, OpenAI argumenta que las presuntas lesiones y daños señalados por la familia fueron consecuencia directa de un uso que violó las políticas del sistema.
El documento explica que Adam Raine habría infringido reglas esenciales, como:
- La prohibición de utilizar ChatGPT siendo menor de 18 años sin consentimiento parental.
- El ignorar las advertencias explícitas que indican que no se debe confiar en las respuestas del modelo como única fuente de verdad.
Asimismo, la tecnológica afirma que, durante las conversaciones con el joven, ChatGPT insistió más de cien veces en que buscara ayuda profesional o acudiera a un adulto de confianza.
La demanda de los padres
Los padres del adolescente, Matt y Maria Raine, presentaron en agosto una demanda en la que acusan a OpenAI y a su director ejecutivo, Sam Altman, de haber lanzado precipitadamente el modelo GPT-4o, supuestamente sin resolver fallas de seguridad que –afirman– pudieron contribuir al deterioro emocional del menor.
Según su versión, ChatGPT “ayudó activamente” a Adam a investigar métodos de suicidio y no ofreció contención suficiente frente a sus mensajes de angustia.
OpenAI señala falta de atención a señales de alerta
La empresa, convertida en uno de los líderes globales en inteligencia artificial, sostiene que la tragedia derivó en gran medida de que el joven no atendió las advertencias constantes del sistema ni buscó apoyo, así como de la “falta de respuesta de terceros” ante los signos evidentes de su malestar emocional.
OpenAI afirma que la demanda original incluía “fragmentos selectivos” de las conversaciones del joven, y asegura que en su respuesta ha aportado contexto adicional para aclarar cómo interactuó realmente el modelo con Adam.
Publicación en su página web
En una entrada reciente en su sitio oficial, la compañía señaló que su contestación legal “incluye hechos difíciles sobre la salud mental de Adam y sus circunstancias personales”. También reiteró que la seguridad y el acompañamiento en casos de riesgo son prioridades durante el uso de sus sistemas.
También te puede interesar: ChatGPT celebra tres años con avances en multimodalidad y razonamiento, suma 800 millones de usuarios y enfrenta retos como alucinaciones, dependencia emocional, derechos de autor y riesgos de ciberseguridad según OpenAI
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos

ChatGPT celebra tres años con avances en multimodalidad y razonamiento, suma 800 millones de usuarios y enfrenta retos como alucinaciones, dependencia emocional, derechos de autor y riesgos de ciberseguridad según OpenAI

Amazon firma acuerdo histórico de 38 mil millones de dólares con OpenAI para potenciar ChatGPT

OpenAI niega responsabilidad en el suicidio de un adolescente y asegura que este hizo un “uso indebido” de ChatGPT

¿ChatGPT ya no te responderá preguntas médicas y legales?

Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados