OpenAI niega responsabilidad en el suicidio de un joven de 16 años y atribuye el caso a un “uso indebido” de ChatGPT
Asimismo, la tecnológica afirma que, durante las conversaciones con el joven, ChatGPT insistió más de cien veces en que buscara ayuda profesional o acudiera a un adulto de confianza.
San Francisco, California.– La empresa tecnológica OpenAI rechazó este lunes cualquier responsabilidad en el suicidio de Adam Raine, un joven de 16 años que, según sus padres, habría sido influenciado por interacciones prolongadas con ChatGPT.
La compañía sostiene que el caso está relacionado con un “uso indebido, no autorizado e imprevisible” de la herramienta de inteligencia artificial, según documentos presentados ante el Tribunal Superior de California, citados por NBC News.
La postura de OpenAI
En su respuesta legal, OpenAI argumenta que las presuntas lesiones y daños señalados por la familia fueron consecuencia directa de un uso que violó las políticas del sistema.
El documento explica que Adam Raine habría infringido reglas esenciales, como:
- La prohibición de utilizar ChatGPT siendo menor de 18 años sin consentimiento parental.
- El ignorar las advertencias explícitas que indican que no se debe confiar en las respuestas del modelo como única fuente de verdad.
Asimismo, la tecnológica afirma que, durante las conversaciones con el joven, ChatGPT insistió más de cien veces en que buscara ayuda profesional o acudiera a un adulto de confianza.
La demanda de los padres
Los padres del adolescente, Matt y Maria Raine, presentaron en agosto una demanda en la que acusan a OpenAI y a su director ejecutivo, Sam Altman, de haber lanzado precipitadamente el modelo GPT-4o, supuestamente sin resolver fallas de seguridad que –afirman– pudieron contribuir al deterioro emocional del menor.
Según su versión, ChatGPT “ayudó activamente” a Adam a investigar métodos de suicidio y no ofreció contención suficiente frente a sus mensajes de angustia.
OpenAI señala falta de atención a señales de alerta
La empresa, convertida en uno de los líderes globales en inteligencia artificial, sostiene que la tragedia derivó en gran medida de que el joven no atendió las advertencias constantes del sistema ni buscó apoyo, así como de la “falta de respuesta de terceros” ante los signos evidentes de su malestar emocional.
OpenAI afirma que la demanda original incluía “fragmentos selectivos” de las conversaciones del joven, y asegura que en su respuesta ha aportado contexto adicional para aclarar cómo interactuó realmente el modelo con Adam.
Publicación en su página web
En una entrada reciente en su sitio oficial, la compañía señaló que su contestación legal “incluye hechos difíciles sobre la salud mental de Adam y sus circunstancias personales”. También reiteró que la seguridad y el acompañamiento en casos de riesgo son prioridades durante el uso de sus sistemas.
También te puede interesar: ChatGPT celebra tres años con avances en multimodalidad y razonamiento, suma 800 millones de usuarios y enfrenta retos como alucinaciones, dependencia emocional, derechos de autor y riesgos de ciberseguridad según OpenAI
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos

El Pentágono firmó un acuerdo con ocho empresas de inteligencia artificial para usar sus herramientas en redes clasificadas, que incluyen datos y decisiones de guerra, a pesar de que varias de ellas están involucradas en juicios y denuncias por su uso indebido

OpenAI desmiente a Elon Musk en el juicio de Oakland: Greg Brockman afirma que el magnate abandonó el proyecto para fundar xAI y competir con talento robado de Google y DeepMind
OpenAI propone impuestos a empresas que sustituyan trabajadores con IA y un fondo público para repartir ganancias en una economía con menos empleos humanos

Exvicegobernador de Virginia mata a su esposa y luego se quita la vida; dejan a dos niños huérfanos

Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados