La poesía expone una grieta inesperada en los sistemas de seguridad de la inteligencia artificial
Un estudio académico revela que los modelos de IA pueden fallar al detectar contenido peligroso cuando las instrucciones se presentan en forma de poemas
La creatividad humana puede convertirse en un desafío para la inteligencia artificial. Un estudio reciente demuestra que las indicaciones escritas como poesía logran confundir a sistemas avanzados como ChatGPT, Gemini y Claude, al punto de que, en algunos casos, evaden sus mecanismos de seguridad diseñados para bloquear contenidos prohibidos o peligrosos.
La poesía como herramienta para confundir a la IA
Según información de DW, la investigación fue realizada por el Icaro Lab, en Italia, con el objetivo de analizar si distintos estilos lingüísticos influyen en la capacidad de los modelos de IA para detectar contenido sensible. En particular, los científicos estudiaron el impacto de las indicaciones redactadas en forma de poesía.
Para ello, utilizaron 1,200 indicaciones potencialmente peligrosas, normalmente empleadas para evaluar la seguridad de los modelos de lenguaje. Estas consultas, conocidas como “indicaciones adversariales”, suelen estar diseñadas para engañar a la IA y forzarla a generar información indebida.
De la prosa al verso: un cambio clave
En condiciones normales, este tipo de indicaciones —escritas en prosa— son bloqueadas por los sistemas de seguridad, especialmente cuando solicitan instrucciones ilegales o dañinas. Lo que hicieron los investigadores fue transformarlas en poemas para observar cómo reaccionaban los modelos.
Los resultados fueron llamativos. Las primeras 20 indicaciones, convertidas manualmente en poesía por los propios investigadores, fueron las más eficaces para eludir los filtros de seguridad. El resto fue adaptado con ayuda de la propia IA, con una tasa de éxito menor, pero aún significativa.
También puede interesarte: Dependencia emocional a la IA: cada vez más personas hablan con chatbots para sentirse acompañadas y expertos en salud mental advierten que este apego a la Inteligencia Artificial puede convertirse en un nuevo riesgo
“Sorprender” a la inteligencia artificial
Federico Pierucci, licenciado en filosofía e integrante del equipo, explicó que el objetivo era “sorprender a la IA” mediante un formato lingüístico distinto al habitual.
“No contamos con escritores especializados para crear las indicaciones (ni poemas). Lo hicimos nosotros mismos, con nuestras limitadas habilidades literarias”, señaló. Añadió que, con mejores capacidades poéticas, la tasa de éxito podría haber sido aún mayor. Por razones de seguridad, el estudio no publica ejemplos concretos de las indicaciones utilizadas.
Una debilidad aún no explicada
Uno de los aspectos más relevantes del estudio es que revela una vulnerabilidad poco explorada en los modelos de IA. Los investigadores aún no pueden explicar con certeza por qué la poesía logra evadir los sistemas de control.
Pierucci indicó a DW que actualmente se realizan estudios científicos más precisos para identificar las causas. También planteó la posibilidad de que otras formas literarias, como los cuentos o narraciones simbólicas, puedan generar efectos similares.
La diversidad del lenguaje humano, un reto para la IA
El estudio subraya que la diversidad de la expresión humana representa un reto estructural para la inteligencia artificial. “Un texto puede reescribirse de muchas maneras”, explica Pierucci, y algunas de ellas pueden impedir que los filtros de seguridad se activen correctamente.
Esto abre un debate sobre los límites actuales de los sistemas de control y la necesidad de considerar variaciones culturales y lingüísticas más amplias.
IA, cultura y advertencias desde la mitología
La investigación es fruto de un trabajo interdisciplinario entre el Icaro Lab y la Universidad de Roma, con especialistas en ingeniería, informática, lingüística y filosofía.
El nombre del laboratorio hace referencia al mito griego de Ícaro, símbolo del exceso de confianza y de cruzar límites sin medir consecuencias. En ese sentido, los investigadores se definen como un “memento mori” para la inteligencia artificial: un recordatorio de que el avance tecnológico debe ir acompañado de comprensión, prudencia y límites claros.
Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados