Modelos de lenguaje como ChatGPT podrían detectar signos de depresión, según estudios
Un estudio sugiere que podrían servir como herramientas para identificar señales de alerta relacionadas con la salud mental
Un estudio publicado en JAMA Network Open sugiere que los modelos de inteligencia artificial de lenguaje avanzado, como ChatGPT, podrían servir como herramientas para identificar señales de alerta relacionadas con la salud mental, incluyendo síntomas de depresión y tendencias suicidas, en personas que ya reciben atención psiquiátrica.
La investigación, liderada por un grupo de científicos en Corea del Sur, subraya que, aunque estas tecnologías muestran una capacidad prometedora para detectar riesgos psicológicos a partir del lenguaje natural, aún se requiere un desarrollo adicional para garantizar su fiabilidad y seguridad en contextos clínicos reales.
El equipo analizó cómo los grandes modelos lingüísticos —entrenados con vastos volúmenes de texto para entender y generar lenguaje humano— pueden ayudar a interpretar las respuestas de pacientes. También evaluaron modelos de incrustación semántica (embeddings), que transforman palabras y frases en representaciones numéricas para su análisis computacional.
La base del estudio fueron los datos obtenidos de 1.064 jóvenes adultos, entre 18 y 39 años, todos pacientes psiquiátricos. Los participantes completaron pruebas de autoevaluación y ejercicios de frases incompletas, técnica en la que se invita a los individuos a terminar enunciados con lo primero que les venga a la mente, revelando percepciones personales y aspectos emocionales.
Las respuestas fueron procesadas por modelos como GPT-4, Gemini 1.0 Pro y Google DeepMind, así como por sistemas de embeddings como text-embedding-3-large de OpenAI. Según los investigadores, estas herramientas lograron detectar patrones de riesgo basándose únicamente en el lenguaje utilizado por los pacientes, indica EFE.
En un análisis externo al estudio, el doctor Alberto Ortiz, del Hospital Universitario La Paz (Madrid), advirtió que los resultados no pueden extrapolarse a la población general, ya que el experimento se centró exclusivamente en personas bajo tratamiento psiquiátrico. Desde el Science Media Centre, recalcó que el uso de inteligencia artificial en salud mental debería centrarse en el análisis de narrativas personales, como plantea esta investigación.
No obstante, Ortiz matizó que identificar riesgos y realizar un primer cribado no equivale a brindar atención terapéutica. Tratar el sufrimiento emocional —afirmó— requiere la intervención humana, donde el vínculo entre paciente y profesional es insustituible por la tecnología.