Edición México
Suscríbete
Ed. México

El Imparcial / Lo Curioso / Inteligencia Artficial

La inteligencia artificial ya confunde al ojo humano: cómo identificar rostros falsos en internet

Un estudio publicado en Royal Society Open Science revela que la mayoría de las personas no puede distinguir entre rostros humanos reales y rostros generados por inteligencia artificial sin entrenamiento previo.

La inteligencia artificial ya confunde al ojo humano: cómo identificar rostros falsos en internet

CIUDAD DE MÉXICO.- La inteligencia artificial ya es capaz de generar rostros humanos tan convincentes que la mayoría de las personas no puede distinguir si son reales o falsos. Así lo indica un estudio publicado en la revista Royal Society Open Science, el cual señala que, sin entrenamiento previo, los participantes fallaron de forma constante al intentar diferenciar caras humanas de imágenes creadas por computadora.

Los investigadores advierten que estas representaciones artificiales ya son tan creíbles que, en muchos casos, resultan más convincentes que los rostros auténticos, lo que incrementa el riesgo de engaño en entornos digitales.

¿Cómo se crean estos rostros artificiales?

El estudio explica que estas imágenes se producen mediante redes neuronales conocidas como redes generativas antagónicas, o GANs por sus siglas en inglés. Estos sistemas aprenden a generar rostros a partir de grandes bases de datos de imágenes humanas.

“Las redes generativas antagónicas pueden crear rostros sintéticos realistas, que tienen el potencial de ser usados con fines engañosos”, escribieron los investigadores.

El problema no es solo técnico. Estas imágenes ya circulan de forma masiva en redes sociales, plataformas de mensajería y sitios web.

Deepfakes y engaños recientes en redes sociales

En fechas recientes, usuarios de TikTok denunciaron la aparición de supuestos médicos creados con inteligencia artificial que difundían consejos de salud sin respaldo científico. Estos perfiles utilizaban rostros falsos y voces generadas por computadora para aparentar credibilidad y autoridad.

Este tipo de prácticas demuestra cómo la inteligencia artificial puede emplearse para estafar, manipular o difundir información falsa, sobre todo cuando el público no cuenta con herramientas para detectar el engaño.

Un entrenamiento de cinco minutos para detectar rostros falsos

Para reducir el riesgo de engaño, investigadores desarrollaron un entrenamiento breve, de apenas cinco minutos, que ayuda a las personas a identificar errores comunes en los rostros creados por inteligencia artificial. El programa fue diseñado por el equipo encabezado por Katie Gray, profesora asociada de psicología en la Universidad de Reading, en Reino Unido.

“Fue alentador ver que un procedimiento de entrenamiento tan corto aumentó de manera considerable el desempeño de ambos grupos”, señaló Gray.

El entrenamiento enseña a detectar fallas frecuentes, como:

  • Dientes colocados de forma extraña, por ejemplo un solo diente al centro
  • Líneas de cabello poco naturales
  • Texturas de piel que no corresponden a un rostro humano real

Los investigadores advierten que muchas caras falsas son más simétricas y proporcionadas que las reales, lo que también puede servir como señal de alerta.

Resultados del experimento: antes y después del entrenamiento

El equipo comparó el desempeño de personas con habilidades promedio para reconocer rostros y de los llamados superreconocedores, individuos con una capacidad superior para identificar caras humanas.

En la primera prueba, sin entrenamiento previo, los resultados fueron bajos:

  • Los participantes promedio identificaron solo 30 por ciento de los rostros falsos
  • Los superreconocedores detectaron 41 por ciento, un nivel cercano al azar

En una segunda prueba, realizada con un grupo que recibió el entrenamiento de cinco minutos, la precisión aumentó:

  • Los superreconocedores identificaron 64 por ciento de los rostros falsos
  • Los participantes promedio alcanzaron 51 por ciento

Además, los participantes entrenados tardaron más tiempo en responder, lo que sugiere una observación más cuidadosa antes de decidir.

Limitaciones del estudio y riesgos que continúan

Los autores señalan que una limitación del estudio es que las pruebas se realizaron inmediatamente después del entrenamiento, por lo que no se sabe cuánto tiempo se conservan estas habilidades con el paso de los días.

Aun así, consideran que dotar a las personas de herramientas básicas para detectar suplantaciones digitales es fundamental, dado el creciente número de perfiles falsos generados por inteligencia artificial.

El riesgo, advierten, no se limita a las imágenes. Investigaciones recientes indican que sistemas de lenguaje como ChatGPT ya superaron el Test de Turing, lo que significa que pueden comunicarse de forma indistinguible de un humano en ciertos contextos.

Por qué es importante aprender a detectar contenido generado por IA

La capacidad de distinguir entre personas reales y sistemas automatizados se volvió una habilidad necesaria para navegar en internet. En un entorno saturado de perfiles falsos, voces artificiales y rostros creados por computadora, observar con atención y cuestionar la autenticidad del contenido ya no es opcional.

También podría interesarte: Por qué reemplazar empleados jóvenes con inteligencia artificial es una mala idea: el CEO de Amazon Web Services advierte sobre costos ocultos, pérdida de talento y riesgos a largo plazo para las empresas

El estudio muestra que, con información básica y poco tiempo, cualquier persona puede mejorar su capacidad para detectar engaños digitales y reducir el riesgo de ser víctima de suplantación o desinformación.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados