Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / ChatGPT

Hombre de 60 años hospitalizado tras seguir dieta recomendada por ChatGPT

El paciente consumió bromuro de sodio por consejo de la Inteligencia Artificial y sufrió intoxicación grave

Hombre de 60 años hospitalizado tras seguir dieta recomendada por ChatGPT

CIUDAD DE MÉXICO. 13 DE AGOSTO DE 2025.- Un hombre de 60 años terminó hospitalizado luego de seguir una dieta basada en recomendaciones de ChatGPT, la popular Inteligencia Artificial. Así lo dio a conocer el Heraldo de México.

El paciente incluyó bromuro de sodio en su alimentación como sustituto de la sal común, lo que derivó en una intoxicación conocida como bromismo, un padecimiento poco frecuente hoy en día pero muy peligroso.

El caso fue reportado en la revista Annals of Internal Medicine: Clinical Case, donde se detalla que el paciente presentó síntomas neurológicos y psiquiátricos severos. El hombre ingresó a urgencias con paranoia, sospechando que su vecino intentaba envenenarlo, y posteriormente comenzó a experimentar alucinaciones visuales y auditivas.

Días después de su ingreso, confesó que había buscado alternativas a la sal común en ChatGPT, siguiendo la indicación de la IA de consumir bromuro de sodio.

Durante tres meses, el hombre consumió este compuesto, lo que elevó sus niveles de bromuro en sangre y causó la intoxicación. Los médicos aplicaron tratamiento con diuresis salina y reposición de nutrientes, logrando estabilizar al paciente en tres semanas.

¿Qué es el bromismo?

El bromismo es una intoxicación causada por la acumulación de bromuro en el organismo. Fue más común a principios del siglo XX, cuando algunas medicinas para el insomnio y la ansiedad contenían sales de bromuro. Entre 1975 y 1989, la FDA prohibió estos compuestos por sus riesgos.

Los síntomas principales incluyen confusión, paranoia, alteraciones en la piel, alucinaciones y problemas de coordinación. La detección temprana es crucial para evitar consecuencias graves.

Riesgos de seguir consejos médicos de la Inteligencia Artificial

Las herramientas de Inteligencia Artificial, como ChatGPT, pueden ser útiles para obtener información, pero no reemplazan la consulta con un profesional de la salud. Seguir recomendaciones médicas sin supervisión puede resultar peligroso, como demuestra este caso.

Los chats con IA no están diseñados para diagnosticar ni tratar enfermedades, y cualquier cambio en la dieta o el consumo de sustancias debe ser consultado con un especialista. Cuestionar y validar la información con profesionales es esencial para prevenir complicaciones graves.

Tal vez te interese: Si Trump cumple amenaza de atacar a cárteles mexicanos, solo aumentaría su popularidad: expertos

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados