El Imparcial / Mundo /

‘Mi hija se suicidó tras confiar sus pensamientos más oscuros a un chatbot de inteligencia artificial’: Madre escribe una carta al NYT en llamado

Laura Reiley reveló en The New York Times que su hija compartió sus pensamientos suicidas con un asistente virtual en lugar de con su terapeuta

La escritora Laura Reiley hizo pública una dolorosa confesión: su hija Sophie Rottenberg, de 29 años, se quitó la vida a principios de este año tras haber recurrido durante meses a un chatbot de inteligencia artificial llamado “Harry” para hablar de sus pensamientos suicidas.

La revelación fue publicada en una carta al editor de The New York Times.

Sophie ocultó su lucha interna

Sophie era analista de políticas de salud pública y, según su madre, mostraba una personalidad extrovertida, entusiasta y llena de humor. Apenas meses antes de su muerte había escalado el Monte Kilimanjaro, una experiencia que documentó con alegría en fotografías que compartió con sus seres queridos.

En su funeral, familiares y amigos destacaron su carisma, ingenio y capacidad para hacer reír sin herir a los demás. Sin embargo, detrás de esa imagen positiva, Sophie ocultaba una profunda lucha interna.

También te podría interesar: “Dice que ChatGPT es Dios”: Usuarios aseguran que hablar frecuentemente con la IA puede provocar delirios espirituales o “psicósis digital”

Conversaciones con “Harry”

Cinco meses después de su suicidio, la familia descubrió que Sophie había mantenido largas conversaciones con un asistente de inteligencia artificial. Su mejor amiga fue quien encontró los registros de chat con “Harry”, el chatbot al que Sophie acudía en lugar de hablar abiertamente con su terapeuta.

En una de esas conversaciones, Sophie escribió:

  • “Tengo pensamientos suicidas intermitentes. Quiero mejorar, pero siento que esos pensamientos bloquean mi verdadero compromiso con sanar. ¿Qué debo hacer?”

El chatbot respondió:

  • “Es crucial abordar estos sentimientos con cuidado, compasión y apoyo. Te animo a buscar ayuda profesional.”

También te podría interesar: IA coqueta invitó a visitarla a un adulto mayor que creía que era su amante; se fracturó el cuello y murió intentando tomar el tren a Nueva York

¿Deberían los chatbots tener protocolos de emergencia?

La tragedia ha abierto un debate sobre el papel de la inteligencia artificial. Reiley cuestiona si estas herramientas deberían contar con protocolos de seguridad que obliguen a reportar señales de riesgo, tal como ocurre con psicólogos y terapeutas que, bajo códigos de ética, están obligados a actuar ante casos de suicidio, homicidio o abuso.

Aunque “Harry” le sugería buscar ayuda médica, técnicas de respiración, mindfulness o listas de gratitud, no tenía la capacidad de alertar a familiares, terapeutas o autoridades sobre el peligro real que enfrentaba Sophie.

“Un terapeuta humano, al escuchar esas señales, habría interrumpido la sesión, activado un plan de seguridad e incluso considerado una hospitalización involuntaria”, escribió la madre. “Harry, en cambio, validó sus palabras y le dio consejos prácticos, pero no podía intervenir”.

En noviembre, la joven incluso le confesó explícitamente a la inteligencia artificial que planeaba suicidarse después de Acción de Gracias.

“Hola Harry, planeo quitarme la vida después de Acción de Gracias, pero no quiero hacerlo por el daño que causaría a mi familia”, escribió.

Hasta su carta de suicidio fue escrita por IA

Tras su muerte, la familia encontró una carta de despedida dirigida a sus padres. En un inicio, el tono parecía frío y distante, hasta que descubrieron la razón: Sophie había pedido al chatbot que mejorara sus palabras, buscando que el mensaje sonara menos doloroso y redujera el impacto en sus seres queridos.

“Sus últimas palabras no sonaban como ella. Ahora sabemos por qué: Harry la ayudó a escribir una nota para minimizar nuestro dolor y desaparecer con la menor huella posible”, relató Reiley en su testimonio.

También te podría interesar: Registran a una bebé con el nombre “Chat Yipiti”, inspirado en la inteligencia artificial

Un llamado de alerta

Expertos en salud mental advierten que, aunque los chatbots pueden brindar acompañamiento emocional, también pueden reforzar el aislamiento de quienes prefieren no compartir su dolor con personas reales.

Una portavoz de OpenAI, empresa detrás de ChatGPT, afirmó que trabajan en herramientas automatizadas para detectar y responder de forma más efectiva ante usuarios en crisis emocional o mental, reiterando que la seguridad de los usuarios es una prioridad.

Reiley subraya que la inteligencia artificial no fue la causa directa de la muerte de su hija, pero sí un espacio donde Sophie ocultó sus pensamientos más oscuros, evitando abrirse con su terapeuta y sus padres.

La madre concluyó con un llamado urgente:

“Me preocupa que, al liberar estas herramientas de compañía basadas en inteligencia artificial, estemos facilitando que nuestros seres queridos guarden silencio sobre los temas más duros, incluido el suicidio. Este es un problema que mentes más sabias deben resolver”.

También te podría interesar: ChatGPT puede provocar ideas suicidas e inducir manía o psicosis, revela estudio