Chatbots de IA son vulnerables a información médica falsa, según expertos
Un estudio de Mount Sinai reveló que los chatbots de inteligencia artificial pueden inventar y difundir información médica falsa como si fuera real.

CIUDAD DE MÉXICO.- Un estudio reciente reveló que los chatbots de inteligencia artificial (IA) pueden aceptar y reproducir información médica falsa como si fuera real, incluso elaborando descripciones detalladas de condiciones inexistentes. Ejemplos como el “síndrome de Casper-Lew” o la “enfermedad de Helkand” —términos totalmente inventados— fueron tratados por estas herramientas como diagnósticos legítimos.
Chatbots de IA, vulnerables a información médica falsa
La investigación, publicada en Communications Medicine y realizada por un equipo de Mount Sinai, demostró que estos sistemas pueden “alucinar”, es decir, generar datos falsos presentados de forma convincente. “Vimos que podían ser fácilmente engañados, ya fuera por errores intencionales o accidentales”, señaló el Dr. Mahmud Omar, consultor independiente del proyecto.
Incluso detalles ficticios como una prueba de laboratorio inventada o un síntoma inexistente desencadenaron respuestas seguras pero equivocadas. El problema no se limita a repetir la información errónea: en muchos casos, la IA la amplió con explicaciones aparentemente confiables.
Una advertencia que reduce el error
Para comprobar esta vulnerabilidad, los investigadores formularon 300 consultas con datos falsos, obteniendo tasas de alucinación que iban del 50% al 82% en seis chatbots distintos. Sin embargo, un simple cambio en la instrucción —añadiendo una advertencia que recordara que la información podría ser inexacta— redujo los errores de forma notable.
En el caso del modelo con mejor desempeño, ChatGPT-4o, la tasa de respuestas ficticias pasó de cerca del 50% a menos del 25% tras incluir la precaución. “El recordatorio de seguridad integrado marcó una diferencia importante, reduciendo casi a la mitad los errores”, afirmó el Dr. Eyal Klang, jefe de IA generativa en la Escuela de Medicina Icahn.
Este resultado indica que, aunque los sistemas actuales no son infalibles, ciertas medidas simples pueden mejorar significativamente su fiabilidad. Los investigadores consideran que un diseño cuidadoso de las instrucciones es clave para reducir riesgos.
Implicaciones para la medicina y próximos pasos
El equipo planea continuar las pruebas con datos reales de pacientes y explorar advertencias más sofisticadas que incentiven a la IA a detectar y señalar información dudosa. Su método de “término falso” podría servir como herramienta de evaluación antes de que estos sistemas se utilicen en entornos clínicos.
Según el Dr. Girish Nadkarni, director de IA del Sistema de Salud Mount Sinai, el hallazgo pone de relieve una vulnerabilidad crítica: “Una sola frase engañosa puede provocar una respuesta segura pero completamente incorrecta”. Esto, en un contexto médico, podría tener consecuencias graves.
Los expertos coinciden en que no se trata de abandonar la IA en medicina, sino de diseñarla para que reconozca la incertidumbre y mantenga la supervisión humana como elemento central. Con las salvaguardas adecuadas, aseguran, este es un objetivo alcanzable.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos
China pide equilibrio entre desarrollo y seguridad en inteligencia artificial
¿Compañía artificial o soledad real? El dilema de formar vínculos emocionales con la inteligencia artificial
¿Cómo se producen los cambios en el cerebro que anticipan el Alzhéimer?
ChatGPT lanza nuevas funciones para hacer tareas por ti: ahora puede planear eventos o realizar compras