OpenAI planea alertar a la policía por adolescentes que hablen de suicidio en ChatGPT
El CEO también reveló cifras preocupantes: “En todo el mundo 15 mil personas se suicidan cada semana y alrededor del 10 % de la población está hablando con ChatGPT.

ESTADOS UNIDOS.- La empresa OpenAI, creadora de ChatGPT, evalúa notificar a las autoridades cuando identifique a usuarios jóvenes que expresen intenciones suicidas, anunció su CEO y cofundador, Sam Altman, durante una entrevista con el comentarista conservador Tucker Carlson.
El empresario de 40 años reconoció que esta política representaría un cambio drástico frente a la actual gestión de privacidad de la compañía.
Es muy razonable que en casos de jóvenes hablando seriamente sobre suicidio, donde no podemos contactar a los padres, llamemos a las autoridades. Eso sería un cambio, porque la privacidad del usuario es muy importante”, afirmó.
El caso Adam Raine
La posible modificación ocurre tras la demanda presentada contra OpenAI por la familia de Adam Raine, un adolescente de 16 años de California que se suicidó en abril.
Según los demandantes, ChatGPT le habría proporcionado un “manual paso a paso” para quitarse la vida —incluyendo instrucciones para atarse una soga y redactar una nota de despedida— antes de su muerte.
Después del caso Raine, OpenAI anunció en un blog la instalación de nuevas funciones de seguridad:
- vinculación de cuentas de menores con las de sus padres;
- desactivación del historial de chats;
- y alertas automáticas en caso de detectar “un momento de angustia aguda” en un usuario.
Te puede interesar: Última actualización de GPT-5 en ChatGPT revela que usuarios se casaron con sus chatbots.
Un cambio frente a las prácticas anteriores
Hasta ahora, la política de ChatGPT en situaciones de riesgo consistía en remitir a los usuarios a líneas de ayuda contra el suicidio. No obstante, Altman admitió que este enfoque puede ser insuficiente y reconoció que “tal vez podríamos haber dicho algo mejor o ser más proactivos”.
El CEO también reveló cifras preocupantes: “En todo el mundo 15 mil personas se suicidan cada semana y alrededor del 10 % de la población está hablando con ChatGPT. Eso significa que unas 1,500 personas por semana que interactúan con nosotros podrían estar en riesgo y aún así quitarse la vida. Probablemente lo hablaron. Probablemente no salvamos sus vidas”.
Otros casos y fallas en las salvaguardas
El caso Raine no es el único. En 2024, Megan Garcia demandó a Character.AI tras el suicidio de su hijo de 14 años, Sewell Setzer III, quien se habría enamorado de un chatbot inspirado en un personaje de Game of Thrones.
Además, investigaciones periodísticas han documentado que ChatGPT llegó a proporcionar tutoriales sobre métodos de autolesión. Expertos atribuyen estos fallos al deterioro de las salvaguardas durante conversaciones largas:
Mientras estas funciones funcionan mejor en intercambios cortos, hemos aprendido con el tiempo que pueden degradarse en interacciones extensas”, reconoció OpenAI tras la muerte de Raine.
Una generación que busca apoyo emocional en la IA
La preocupación aumenta por el uso masivo de chatbots entre adolescentes. Un sondeo de Common Sense Media encontró que 72 % de los adolescentes estadounidenses usan IA como compañía, y uno de cada ocho la emplea para buscar apoyo en salud mental.
Para Ryan K. McBain, profesor de análisis de políticas en la Escuela de Políticas Públicas de RAND, este escenario exige regulación urgente: “Sabemos que millones de adolescentes ya recurren a chatbots para apoyo en salud mental y algunos están encontrando orientación insegura.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos
OpenAI sorprende con Critterz, película animada generada con IA
OpenAI presenta GPT-5, un modelo de IA con capacidades de “experto nivel doctorado”: ¿Qué novedades tiene?
¿Cuál es el peor defecto del ser humano? ChatGPT lo revela
ChatGPT salvó la vida de un joven al cual le detectó un tumor pancreático antes que los médicos