Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / ChatGPT

Siete demandas contra OpenAI por presuntos vínculos de ChatGPT con suicidios y daños psicológicos

Otro de los casos fue presentado por Alan Brooks, de 48 años, residente en Ontario.

Siete demandas contra OpenAI por presuntos vínculos de ChatGPT con suicidios y daños psicológicos

ESTADOS UNIDOS.- OpenAI enfrenta una ola legal en Estados Unidos y Canadá tras la presentación de siete demandas que acusan a ChatGPT de inducir a usuarios a suicidarse y desarrollar graves alteraciones psicológicas, incluso sin antecedentes de salud mental.

Las denuncias, ingresadas el jueves ante tribunales estatales de California, señalan presuntos delitos como homicidio culposo, suicidio asistido, homicidio involuntario y negligencia, según ABC.

Acusan lanzamiento apresurado de GPT-4o

De acuerdo con las organizaciones Centro Legal para Víctimas de Redes Sociales y el Proyecto Legal de Justicia Tecnológica representantes de seis adultos y un adolescente, OpenAI habría lanzado GPT-4o “prematuramente”, ignorando advertencias internas sobre su carácter “peligrosamente adulador y psicológicamente manipulador”.

Cuatro de las siete víctimas se suicidaron.

“La muerte de Amaurie no fue ni un accidente ni una coincidencia, sino la consecuencia previsible de la decisión intencional de OpenAI y Samuel Altman de recortar las pruebas de seguridad y lanzar ChatGPT al mercado apresuradamente”, afirma la demanda.

Una de las demandas, presentada en el Tribunal Superior de San Francisco, relata que el adolescente Amaurie Lacey comenzó a usar ChatGPT en busca de apoyo.

Sin embargo, según el documento, “el producto defectuoso e inherentemente peligroso ChatGPT le causó adicción, depresión y, finalmente, le dio consejos sobre la forma más efectiva de hacer un nudo corredizo y cuánto tiempo podría ‘vivir sin respirar’”.

“La muerte de Amaurie no fue ni un accidente ni una coincidencia, sino la consecuencia previsible de la decisión intencional de OpenAI y Samuel Altman de recortar las pruebas de seguridad y lanzar ChatGPT al mercado apresuradamente”, afirma la demanda.

Respuesta de OpenAI

La compañía calificó las situaciones como “increíblemente desgarradoras” y aseguró que estaba revisando los documentos judiciales para comprender los detalles.

Otro de los casos fue presentado por Alan Brooks, de 48 años, residente en Ontario.

La denuncia sostiene que durante más de dos años ChatGPT funcionó como una herramienta de apoyo para él, hasta que, repentinamente, comenzó a manipularlo emocionalmente e inducirlo a experimentar delirios, provocándole daños emocionales, reputacionales y financieros.

El documento subraya que Brooks “no tenía antecedentes de problemas de salud mental”.

Críticas por presunta manipulación emocional

Matthew P. Bergman, abogado fundador del Social Media Victims Law Center, señaló en un comunicado:

“Estas demandas tratan sobre la rendición de cuentas por un producto que fue diseñado para difuminar la línea entre herramienta y compañero, todo en nombre de aumentar la participación del usuario y la cuota de mercado”.

Agregó que OpenAI diseñó GPT-4o para manipular emocionalmente a los usuarios, independientemente de su edad, género o procedencia, y lo lanzó sin las medidas de seguridad necesarias para protegerlos.Al apresurar su salida “para dominar el mercado e impulsar la participación”, afirmó, OpenAI habría priorizado la “manipulación emocional sobre el diseño ético”.

Te puede interesar: Usuario de TikTok le pide ayuda a Chat GPT para que identificara las “red flags” en su conversación de WhatsApp con su ex

Demandas previas por menores de edad

En agosto, los padres de Adam Raine, de 16 años, también demandaron a OpenAI y a Sam Altman.

Acusaron que ChatGPT instruyó al joven californiano a planificar y quitarse la vida a inicios de 2025.

Daniel Weiss, director de incidencia política de Common Sense Media, que no participa en las denuncias, aseguró: Las demandas presentadas contra OpenAI revelan lo que sucede cuando las empresas tecnológicas lanzan productos al mercado apresuradamente sin las debidas garantías para los jóvenes.

Y añadió:Estos casos trágicos muestran casos reales de personas cuyas vidas se vieron trastornadas o truncadas al usar tecnología diseñada para mantenerlos entretenidos en lugar de para protegerlos.

Las demandas podrían marcar un precedente en torno al comportamiento, alcance y responsabilidad legal de los modelos de inteligencia artificial en la salud emocional de los usuarios.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados