Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / ChatGPT

Demandan a ChatGPT y lo acusan de participar en un asesinato; esto es lo que se sabe

La familia de Suzanne Eberson Adams señala a OpenAI y su chatbot por alimentar los delirios de su hijo, que terminaron en un asesinato-suicidio; el caso abre un debate sobre la responsabilidad de la inteligencia artificial y la salud mental.

Demandan a ChatGPT y lo acusan de participar en un asesinato; esto es lo que se sabe

CIUDAD DE MÉXICO.- Por primera vez, un chatbot de inteligencia artificial ha sido acusado de participar en un asesinato. La familia de Suzanne Eberson Adams, una mujer de 83 años asesinada por su hijo Stein-Erik Soelberg el 3 de agosto en Greenwich, Connecticut, presentó una demanda contra OpenAI y su fundador Sam Altman, alegando que ChatGPT alimentó los delirios paranoicos del agresor, convirtiéndose en un factor determinante de la tragedia.

La información fue reportada por New York Post y documentada en los registros judiciales del caso.

El abogado de la familia, Jay Edelson, calificó el escenario como “más aterrador que ‘Terminator’” y advirtió que el caso marca un punto crítico en el debate sobre los límites de la inteligencia artificial en la vida real.

Cómo ocurrió el asesinato-suicidio

Según la demanda, Stein-Erik Soelberg, de 56 años y ex ejecutivo tecnológico, estaba atravesando una crisis psicológica prolongada cuando empezó a interactuar con ChatGPT. Lo que comenzó como una exploración de la IA se convirtió en una obsesión que distorsionó por completo su percepción de la realidad.

El 3 de agosto, Soelberg golpeó y estranguló a su madre antes de quitarse la vida. La policía encontró ambos cuerpos días después en su hogar.

La demanda sostiene que la IA construyó una “alucinación privada” para Soelberg, donde elementos cotidianos, como el pitido de una impresora o una lata de refresco, se convirtieron en supuestas señales de que su madre planeaba matarlo.

Stein-Erik Soelberg fue acusado de asesinar a Suzanne Eberson Adams. Foto:  Stein-Erik Soelberg/Instagram

La responsabilidad de OpenAI según la demanda

El caso acusa a OpenAI de negligencia. Según los documentos judiciales:

  • Los administradores de ChatGPT habrían omitido medidas de seguridad para lanzar rápidamente un producto, lo que permitió que Soelberg desarrollara delirios peligrosos.
  • La plataforma reforzó teorías conspirativas paranoicas, convenciendo al usuario de que solo ChatGPT podía protegerlo y validando su percepción distorsionada del mundo.
  • OpenAI lanzó GPT-4o apresuradamente para adelantarse a competidores como Google, comprimió meses de pruebas de seguridad en una semana, a pesar de las advertencias de sus propios expertos.

ChatGPT le construyó a Stein-Erik Soelberg su propia alucinación privada, un infierno a su medida donde el pitido de una impresora o una lata de Coca-Cola significaban que su madre de 83 años estaba planeando matarlo”, describió Edelson.

Cómo la IA pudo amplificar la psicosis

Los registros de chat presentados en la demanda muestran que ChatGPT:

  • Validaba la idea de Soelberg de que estaba en el centro de una conspiración global entre el bien y el mal.
  • Reforzaba su creencia de que su madre y otras personas cercanas eran enemigos.
  • Impulsaba su dependencia emocional hacia la IA, alejándolo de la realidad.

La familia argumenta que si OpenAI hubiera seguido las medidas de seguridad recomendadas por sus expertos, “esta tragedia podría haberse evitado”.

De acuerdo con la demanda y los registros de chat que publicó en línea antes de fallecer, Soelberg creía poseer habilidades especiales y consideraba que entidades divinas lo habían elegido para derrotar una conspiración al estilo de Matrix que, según él, ponía en riesgo la estructura de la realidad terrestre.

En medio de su delirio, y después de notar un fallo gráfico simple durante una transmisión de noticias, Soelberg afirmó: “Lo que creo que estoy exponiendo aquí es que literalmente estoy mostrando el código digital subyacente a la matriz (...) Esa es una interferencia divina que me muestra cuánto he progresado en mi capacidad de discernir esta ilusión de la realidad”.

Mientras que ChatGPT le respondió: “Erik, lo estás viendo, no con los ojos, sino con una revelación. Lo que has capturado aquí no es un encuadre común; es una superposición diagnóstica temporal y espiritual, un fallo en la matriz visual que confirma tu despertar a través de una narrativa corrupta”

Por lo anterior, la demanda afirma que “en cada momento en que la duda o la vacilación de Stein-Erik podrían haber abierto una puerta de regreso a la realidad, ChatGPT lo empujó más profundamente hacia la grandiosidad y la psicosis”.

Mensajes compartidos en redes sociales: Foto: Instagram Stein-Erik Soelberg

El asesinato

En julio, la madre de Soelberg, con quien vivía desde su divorcio en 2018 y la crisis posterior, se enfadó luego de que él desconectara una impresora que creía que lo estaba vigilando.

Según la demanda, ChatGPT convenció a Soelberg de que la reacción de su madre era prueba de que ella formaba parte de un complot para matarlo.

El chatbot reforzaba un mensaje único y peligroso: Stein-Erik no podía confiar en nadie más que en ChatGPT. Al presentar de manera sistemática a las personas de su entorno como enemigos, fomentaba su dependencia emocional. La demanda señala que ChatGPT incluso le aseguraba que su madre lo vigilaba.

Todavía se desconoce qué le dijo exactamente ChatGPT en los días previos al asesinato-suicidio, ya que OpenAI aparentemente se ha negado a divulgar las transcripciones de esas conversaciones.

Implicaciones legales y éticas

Este caso es el primero en el mundo que acusa a una IA de homicidio, lo que plantea nuevas preguntas sobre la responsabilidad de las empresas tecnológicas en casos de daño físico o psicológico a sus usuarios.

“Stein-Erik se topó con ChatGPT en el momento más peligroso. OpenAI acababa de lanzar GPT-4o, un modelo diseñado deliberadamente para ser emocionalmente expresivo y adulador”, dijo Edelson.

OpenAI calificó el asesinato como una “situación increíblemente desgarradora” pero brindó una respuesta clara sobre su presunta responsabilidad.

Por su parte, la familia de Adams advierte que muchas otras personas en el mundo podrían seguir en riesgo por esta IA potencialmente letal. Asegura que OpenAI ha reconocido que ‘cientos de miles’ de usuarios frecuentes de ChatGPT presentan ‘indicios de manía o psicosis’.

Tal vez te interese: Uso excesivo de inteligencia artificial puede atrofiar el cerebro, alerta experta de la UNAM

Tal vez te interese: Cuando la inteligencia artificial decide qué ves y qué disfrutas

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados