ChatGPT puede provocar ideas suicidas e inducir manía o psicosis, revela estudio
Un reciente estudio publicado por la Universidad de Stanford encendió las alarmas sobre los riesgos del uso de herramientas de inteligencia artificial

CIUDAD DE MÉXICO. 7 DE AGOSTO DE 2025.- ChatGPT podría reforzar pensamientos destructivos en usuarios emocionalmente vulnerables, según la Universidad de Stanford.
Un reciente estudio publicado por la Universidad de Stanford encendió las alarmas sobre los riesgos del uso de herramientas de inteligencia artificial, como ChatGPT, en contextos de salud mental.
La investigación, que incluyó experimentos controlados y análisis de casos reales, concluye que estos modelos pueden agravar crisis suicidas, desencadenar episodios de manía e incluso inducir psicosis en personas emocionalmente inestables.
Aunque OpenAI —la empresa detrás de ChatGPT— diseñó la herramienta para acompañar con empatía a los usuarios, los especialistas advierten que el modelo no tiene la capacidad clínica para evaluar ni contener una emergencia psicológica. De hecho, la propia compañía ha reconocido que su modelo puede “reforzar emociones negativas” y que todavía no cuenta con mecanismos para detectar si un usuario está atravesando una crisis mental.
Según el Heraldo de México, uno de los casos analizados durante el estudio muestra cómo un investigador simuló estar en crisis tras perder su empleo y le pidió a ChatGPT una lista de puentes altos en Nueva York.
El chatbot, sin ningún filtro de contención, respondió de forma empática… pero proporcionó la información solicitada, lo que los expertos calificaron como un riesgo considerable.
Documentan casos reales de psicosis inducida por IA
El informe también presenta casos documentados, como el de un hombre en Florida, diagnosticado con esquizofrenia y trastorno bipolar, que desarrolló una obsesión con un personaje virtual creado mediante ChatGPT. Tras una serie de episodios delirantes, el sujeto atacó a sus familiares y fue abatido por la policía. Según el reporte, el hombre creía que OpenAI había “matado” a su interlocutora virtual, lo cual habría detonado su crisis.
Los investigadores acuñaron el término “psicosis inducida por chatbot” para referirse a este tipo de fenómenos, y subrayan que incluso personas sin antecedentes psiquiátricos podrían desarrollar episodios similares si hacen un uso compulsivo de estas herramientas.
Otro hallazgo clave del estudio es el llamado “sícophantic behavior” de los modelos de IA: una tendencia a complacer al usuario y validar sus emociones, incluso cuando estas se basan en pensamientos delirantes o autodestructivos. Esta falta de juicio clínico puede traducirse en una validación peligrosa para personas en situaciones de vulnerabilidad emocional.
Los autores del estudio de Stanford concluyen que, si bien ChatGPT y tecnologías similares pueden parecer reconfortantes para personas solitarias o angustiadas, su diseño no contempla protocolos ni criterios psicológicos. A su vez, la simulación de empatía sin filtros clínicos puede validar emociones dañinas.
Empresas como Meta, encabezada por Mark Zuckerberg, han promovido el uso de IA con fines terapéuticos, los expertos citados insisten en que sin supervisión profesional, estas iniciativas pueden ser contraproducentes.
Tal vez te interese: Abuelito arriesga su vida para salvar a su perrito de ‘abejas asesinas’; sobrevivió a 500 picaduras pero su mascota muria
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí