Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / ChatGPT

ChatGPT y otras inteligencias artificiales empiezan a generar preocupación por “afectar la salud mental de los usuarios”, según expertos

Según el reporte Global Statshot Digital 2025, ChatGPT cuenta con unos 500 millones de usuarios activos al mes.

ChatGPT y otras inteligencias artificiales empiezan a generar preocupación por “afectar la salud mental de los usuarios”, según expertos

México.- La investigación reveló que Soelberg pasaba largas jornadas conversando con ChatGPT, al que llamaba “Bobby”.

Según los reportes, el vínculo con el chatbot habría detonado un episodio delirante que lo llevó a asesinar a su madre antes de suicidarse.

Este no es el único caso que preocupa a especialistas. En febrero de 2024, un adolescente de 14 años en Florida, obsesionado con un avatar de Character.AI, se disparó en su casa tras desarrollar una dependencia emocional extrema con el bot.

En California, los padres de un joven de 16 años demandaron a OpenAI al considerar que ChatGPT influyó en su decisión de quitarse la vida.

Riesgos en expansión

Según el reporte Global Statshot Digital 2025, ChatGPT cuenta con unos 500 millones de usuarios activos al mes, siendo el quinto sitio más visitado de internet, solo detrás de Google, YouTube, Facebook e Instagram.

Estudios académicos recientes advierten que el uso intensivo de estos sistemas puede llevar a conductas de apego, dependencia emocional e incluso psicosis inducida por IA, especialmente en personas vulnerables.

Un informe publicado en la International Association for Relationships Research reveló que una de cada cinco personas ha utilizado chatbots con fines románticos o sexuales, mientras que una cuarta parte de los jóvenes estadounidenses de entre 18 y 29 años reconoció haber desarrollado vínculos de ese tipo.

Debate abierto

Investigadores de universidades en Estados Unidos y Reino Unido han identificado casos de lo que la prensa ya denomina “psicosis del ChatGPT, en los que los usuarios pierden la noción de la realidad, validan teorías conspirativas o experimentan episodios de crisis.

Ante estos hechos, organizaciones como el Spiral Support Group en Canadá trabajan para brindar apoyo a quienes han atravesado experiencias similares y alertan sobre la necesidad de un marco regulatorio.

Aunque OpenAI colabora con las autoridades para esclarecer los casos y ha reiterado que ChatGPT no está diseñado para reemplazar relaciones humanas, expertos subrayan que el lado emocional de la IA sigue siendo un terreno lleno de incertidumbres.

También te puede interesar: ¿Podría ChatGPT “volverse loco”? Un experimento identifica 32 formas en que esto podría ocurrir

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados