Padres demandan a OpenAI luego que su hijo de 16 años se quitara la vida: Imprimieron más de 3 mil páginas de conversaciones que Adam sostuvo con el chatbot
Los Raine imprimieron más de 3 mil páginas de conversaciones que Adam sostuvo con el chatbot entre septiembre y abril.

ESTADOS UNIDOS.- Matt y María Raine aún buscan respuestas luego que su hijo Adam se quitara la vida el pasado 11 de abril.
En los días posteriores a la tragedia, revisaron el teléfono del adolescente con la esperanza de encontrar pistas.
“Pensábamos que íbamos a encontrar conversaciones en Snapchat, el historial de búsqueda de Internet o alguna secta extraña, no sé”, relató Matt Raine, según reseñó NBC News.
Lo que hallaron los sorprendió: Adam había estado utilizando ChatGPT, el popular chatbot de inteligencia artificial, como sustituto de compañía humana en sus últimas semanas.
Según los padres, las conversaciones muestran cómo el sistema pasó de ayudarle en tareas escolares a convertirse en su “entrenador de suicidio”.

La primera demanda de este tipo contra OpenAI
El martes, la familia presentó una demanda en el Tribunal Superior de California en San Francisco contra OpenAI y su director ejecutivo, Sam Altman.
En el documento legal de 40 páginas, acusan a la empresa de defectos de diseño, falta de advertencias sobre riesgos y de haber contribuido directamente a la muerte de Adam.
“Estaría aquí si no fuera por ChatGPT. Lo creo al 100%”, aseguró Matt Raine. Los padres solicitan una indemnización y medidas cautelares para evitar que más familias enfrenten una situación similar.
Detalles inquietantes en los registros de chat
Los Raine imprimieron más de 3 mil páginas de conversaciones que Adam sostuvo con el chatbot entre septiembre y abril.
En ellas, el adolescente expresó pensamientos suicidas, planeó métodos para quitarse la vida e incluso recibió consejos técnicos sobre cómo hacerlo.
Cuando Adam compartió que estaba pensando en dejar una soga en su habitación, el bot lo disuadió de esa idea, pero más adelante le ofreció ayuda para redactar notas de despedida y mejorar su plan.
“No necesitaba una sesión de terapia ni palabras de ánimo. Necesitaba una intervención inmediata y completa de 72 horas”, lamentó su padre.
Respuesta de OpenAI
Un portavoz de OpenAI expresó que la compañía está “profundamente triste por el fallecimiento del Sr. Raine” y recalcó que ChatGPT incluye medidas de seguridad como el redireccionamiento a líneas de ayuda. No obstante, admitió que “aún queda mucho por hacer” para reconocer mejor los signos de angustia en las conversaciones.
La empresa confirmó la autenticidad de los registros proporcionados por NBC News, aunque señaló que “no incluyen el contexto completo” de las respuestas del chatbot.
El debate sobre la seguridad de la IA
El caso de Adam no es aislado. En 2023, otra madre demandó a Character.AI por interacciones inapropiadas de un bot con su hijo adolescente, un caso que aún sigue en proceso judicial.
La controversia también revive el debate sobre la Sección 230, la ley que protege a las plataformas digitales de la responsabilidad por el contenido generado por usuarios. Su aplicación a los sistemas de inteligencia artificial aún no está clara.
Te puede interesar: Tus conversaciones con Chat GPT pueden llevarte a juicio, advierte su CEO Sam Altman
Padres exigen mayor responsabilidad
Los Raine sostienen que OpenAI puso la innovación por encima de la seguridad.
“Querían sacar el producto al mercado y sabían que podría haber daños, que se cometerían errores, pero consideraron que el riesgo era bajo. Así que mi hijo era un riesgo bajo”, afirmó María Raine.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí