Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / Guerra Israel-Gaza

Bebés falsos, horror real: Deepfakes de la guerra en Gaza aumentan los temores sobre el poder de la IA para engañar

El conflicto Israel-Hamas ha visto la proliferación de deepfakes, imágenes falsas creadas por inteligencia artificial para manipular la narrativa.

WASHINGTON.- Entre las imágenes de hogares destruidos y calles arrasadas en Gaza, algunas destacaron por su horror absoluto: bebés ensangrentados y abandonados.

Vistas millones de veces en línea desde el inicio de la guerra, estas imágenes son deepfakes creados con inteligencia artificial. Si observas detenidamente, puedes ver indicios: dedos que se curvan de manera extraña u ojos que brillan con una luz antinatural, todos signos reveladores de engaño digital.

Sin embargo, la indignación que se pretendía provocar con estas imágenes es demasiado real.

Las fotos de la guerra entre Israel y Hamas han ilustrado vívida y dolorosamente el potencial de la IA como herramienta de propaganda, utilizada para crear imágenes realistas de matanzas. Desde que comenzó la guerra el mes pasado, las imágenes digitalmente alteradas que se difunden en redes sociales se han utilizado para hacer afirmaciones falsas sobre la responsabilidad de las víctimas o para engañar a las personas sobre atrocidades que nunca ocurrieron.

Si bien la mayoría de las afirmaciones falsas que circulan en línea sobre la guerra no requirieron IA para crearse y provinieron de fuentes más convencionales, los avances tecnológicos están llegando con mayor frecuencia y poca supervisión.

Esto ha dejado en evidencia el potencial de la IA para convertirse en otra forma de arma, ofreciendo un vistazo de lo que vendrá durante conflictos futuros, elecciones y otros eventos importantes.

Va a empeorar, mucho peor, antes de mejorar", dijo Jean-Claude Goldenstein, CEO de CREOpoint, una empresa tecnológica con sede en San Francisco y París que utiliza IA para evaluar la validez de las afirmaciones en línea. La compañía ha creado una base de datos de los deepfakes más virales surgidos de Gaza. "Imágenes, videos y audio: con la IA generativa, será una escalada que no has visto".

En algunos casos, se han reutilizado fotos de otros conflictos o desastres y se han presentado como nuevas. En otros, se han utilizado programas de IA generativa para crear imágenes desde cero, como la de un bebé llorando entre los escombros de bombardeos que se volvió viral en los primeros días del conflicto.

Otros ejemplos de imágenes generadas por IA incluyen videos que muestran supuestos ataques de misiles israelíes, tanques avanzando por vecindarios en ruinas o familias buscando sobrevivientes entre los escombros.

En muchos casos, las falsificaciones parecen diseñadas para evocar una fuerte reacción emocional al incluir los cuerpos de bebés, niños o familias. En los sangrientos primeros días de la guerra, partidarios tanto de Israel como de Hamas alegaron que el otro lado había victimizado a niños y bebés; las imágenes deepfake de bebés llorando ofrecían 'evidencia' fotográfica que rápidamente se presentaba como prueba.

Los propagandistas que crean tales imágenes son hábiles para apuntar a los impulsos y ansiedades más profundos de las personas, dijo Imran Ahmed, CEO del Center for Countering Digital Hate, una organización sin fines de lucro que ha rastreado la desinformación de la guerra. Ya sea un bebé deepfake o una imagen real de un bebé de otro conflicto, el impacto emocional en el espectador es el mismo.

Cuanto más aborrecible sea la imagen, más probable es que un usuario la recuerde y la comparta, difundiendo inadvertidamente la desinformación.

A las personas les están diciendo en este momento: Mira esta foto de un bebé", dijo Ahmed. "La desinformación está diseñada para que te involucres con ella".

Contenido generado de manera similar por la inteligencia artificial comenzó a difundirse después de que Rusia invadió Ucrania en 2022. Un video alterado parecía mostrar al presidente ucraniano Volodymyr Zelenskyy ordenando a los ucranianos que se rindieran. Tales afirmaciones han seguido circulando hasta la semana pasada, mostrando cuán persistente puede ser incluso la información fácilmente desacreditada.

Riesgos de la IA

Cada nuevo conflicto o temporada electoral ofrece nuevas oportunidades para que los difusores de desinformación demuestren los últimos avances en IA. Esto ha llevado a muchos expertos en IA y científicos políticos a advertir sobre los riesgos el próximo año, cuando varios países celebren elecciones importantes, incluidos Estados Unidos, India, Pakistán, Ucrania, Taiwán, Indonesia y México.

El riesgo de que la IA y las redes sociales se utilicen para difundir mentiras a los votantes estadounidenses ha alarmado a los legisladores de ambos partidos en Washington. En una audiencia reciente sobre los peligros de la tecnología deepfake, el congresista Gerry Connolly, demócrata de Virginia, dijo que Estados Unidos debe invertir en el desarrollo de herramientas de IA diseñadas para contrarrestar a otras IA.

Como nación, necesitamos hacer esto bien", dijo Connolly.

En todo el mundo, varias nuevas empresas tecnológicas están trabajando en nuevos programas que pueden detectar deepfakes, colocar marcas de agua en imágenes para probar su origen o analizar texto para verificar afirmaciones sospechosas que pueden haber sido insertadas por la IA.

La próxima ola de IA será: ¿Cómo podemos verificar el contenido que está ahí fuera? ¿Cómo puedes detectar la desinformación, cómo puedes analizar el texto para determinar si es confiable?" dijo Maria Amelie, cofundadora de Factiverse, una empresa noruega que ha creado un programa de IA que puede examinar contenido en busca de inexactitudes o sesgos introducidos por otros programas de IA.

Estos programas serían de interés inmediato para educadores, periodistas, analistas financieros y otros interesados en descubrir falsedades, plagio o fraudes. Se están diseñando programas similares para detectar fotos o videos manipulados.

Si bien esta tecnología muestra promesas, aquellos que utilizan la IA para mentir a menudo están un paso adelante, según David Doermann, un científico de la computación que lideró un esfuerzo en la Agencia de Proyectos de Investigación Avanzada de Defensa para abordar las amenazas a la seguridad nacional planteadas por imágenes manipuladas por IA.

Doermann, quien ahora es profesor en la Universidad de Buffalo, dijo que responder de manera efectiva a los desafíos políticos y sociales planteados por la desinformación de IA requerirá tanto una mejor tecnología como mejores regulaciones, estándares voluntarios de la industria y amplias inversiones en programas de alfabetización digital para ayudar a los usuarios de Internet a distinguir la verdad de la fantasía.

Cada vez que lanzamos una herramienta que detecta esto, nuestros adversarios pueden usar la IA para encubrir esa evidencia de rastreo", dijo Doermann. "La detección y tratar de retirar este contenido ya no es la solución. Necesitamos una solución mucho más amplia".  

En esta nota