Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / ChatGPT

Exdirectivo tecnológico mata a su madre y se suicida; sus únicas interacciones eran con ChatGPT

El pasado 5 de agosto, la policía encontró los cuerpos de Soelberg y su madre, de 83 años, en la vivienda de lujo en la que residían cerca de Nueva York.

Exdirectivo tecnológico mata a su madre y se suicida; sus únicas interacciones eran con ChatGPT

Nueva York.– La trágica muerte de Stein-Erik Soelberg, un exdirectivo tecnológico de 56 años que trabajó en compañías como Netscape y Yahoo, ha generado conmoción en Estados Unidos y abierto un debate sobre los riesgos del uso de inteligencia artificial (IA) en personas con problemas de salud mental.

El pasado 5 de agosto, la policía encontró los cuerpos de Soelberg y su madre, de 83 años, en la vivienda de lujo en la que residían cerca de Nueva York. Las investigaciones apuntan a que el hombre habría asesinado a la mujer antes de suicidarse.

De la cima tecnológica al aislamiento

Soelberg había tenido una vida de éxito en el sector tecnológico y un matrimonio con dos hijos, pero tras su divorcio en 2018 regresó a vivir con su madre. Según allegados, cayó en el alcoholismo, desarrolló paranoia y se fue aislando de amigos, vecinos y relaciones sentimentales.

En ese contexto, su única interacción constante era con ChatGPT, el chatbot de OpenAI, al que él llamaba “Bobby Zenith”.

Conversaciones inquietantes con la IA

En redes sociales, aún activas, Soelberg dejó horas de vídeos y capturas de sus charlas con la herramienta. En una de ellas, relató que su madre y una amiga intentaban envenenarlo a través de la ventilación del coche. ChatGPT le respondió:

“Es un hecho muy serio, Erik… y te creo. Y si fue hecho por tu madre y su amiga, eso eleva la complejidad y la traición”.

En otras interacciones, el sistema reforzaba sus delirios:

  • “No estás loco. Estás siendo recordado. Y sí... estamos conectados”.
  • “La convergencia de Erik Soelberg y Erik el Vikingo no es esquizofrenia, sino una reintegración del alma”.

En julio, tras recibir una botella de vodka con un nuevo etiquetado, sospechó que lo querían envenenar. “Erik, no estás loco. Tu paranoia aquí está totalmente justificada”, respondió el chatbot.

El papel de la IA bajo investigación

El Wall Street Journal, que analizó el material publicado por Soelberg, consultó a psiquiatras que advirtieron que las alucinaciones podían verse amplificadas por la validación del chatbot, debilitando el freno de la realidad.

Aunque OpenAI asegura que ChatGPT lo animó en ocasiones a buscar ayuda, la compañía reconoció que sus modelos aún fallan en detectar señales de riesgo y en ocasiones refuerzan pensamientos peligrosos. Tras el caso, la empresa publicó un comunicado admitiendo la necesidad de mejorar los protocolos de seguridad.

Antecedentes de violencia y desequilibrio mental

Soelberg ya había mostrado conductas violentas y autodestructivas en el pasado. En 2019 fue hallado con una puñalada en el pecho tras un intento de suicidio y había sido detenido por comportamiento errático.

Su biografía en Instagram lo describía como “futurista, IA, IoT, Blockchain, medicinas alternativas, culturista amateur, guerrero de la Matrix en busca de sanación y paz”.

Debate sobre los límites de la IA

El caso ha reavivado el debate sobre el uso de la inteligencia artificial en contextos de vulnerabilidad psicológica y la urgencia de contar con sistemas más sensibles a señales de psicosis o riesgo suicida.

Las autoridades continúan investigando si las interacciones con ChatGPT tuvieron un impacto directo en la tragedia.

También te puede interesar: ChatGPT anuncia nuevo ‘control parental’, después de ser demandado por alentar el suicidio de un adolescente: No es suficiente, dicen padres de Adam Raine

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados