¿Una nueva era de los ‘deepfakes’? Así se puede regular la IA de video
Desde hace ya varios años, millones de personas se apoyan menos en los medios de comunicación tradicionales y tratan de mantenerse informadas a través de canales alternativos como las redes sociales. La inmediatez de estas plataformas, su multiplicidad de voces y la presentación de contenidos más personales les dan un atractivo que los medios de comunicación clásicos han ido perdiendo, generando un cisma que está cada vez más vigente.
Sin embargo, la irrupción de los contenidos generados por IA podría cambiar este panorama y restituir a la prensa tradicional el protagonismo que había estado perdiendo. Hoy por hoy, cualquier persona puede tener acceso a un generador de video con IA y crear prácticamente cualquier cosa, con un realismo cada vez mayor. Esto abre muchas posibilidades creativas para la ficción, pero también plantea riesgos en el ámbito de la desinformación.
Los ‘deepfakes’ son más difíciles de identificar que nunca
Los ‘deepfakes’ ya llevaban varios años en circulación. El término se asignó inicialmente para videos reales que eran manipulados para insertar en ellos el rostro de otra persona y crear así contenido falso, generalmente con videos para adultos. Sin embargo, el ‘boom’ de la IA ha hecho que los ‘deepfakes’ sean mucho más fáciles de producir, sobre todo con modelos de IA que no siguen las regulaciones occidentales.
El problema de estos nuevos ‘deepfakes’ no consiste solo en la facilidad de su producción, sino en su extraordinario realismo. La IA es capaz de crear videos con una credibilidad extraordinaria y sobre cualquier tema, incluyendo figuras políticas diciendo algo que nunca han dicho realmente, celebridades realizando actos obscenos, o escenas de guerra que no han tenido lugar. La distinción entre un video real y uno falso se está desdibujando muy deprisa.
Desinformación, suplantación de identidad… Los peligros de los ‘deepfakes’
Desarrollo de este H2 + Bullet Points
Los ‘deepfakes’ entrañan múltiples preocupaciones en función del daño que pueden causar, tanto a personas individuales como a la sociedad en su conjunto. Se pueden emplear con fines políticos, para llevar a cabo estafas, para sembrar disenso social o simplemente para dañar la reputación de una persona o una entidad.
- Desinformación política. Hay múltiples videos en circulación de figuras políticas de primera línea mundial como Donald Trump o Ursula von der Leyen diciendo falsedades o, incluso, incitando a la violencia. Al tratarse de personalidades tan conocidas, a la IA le resulta sencillo captar sus gestos y sus voces a la perfección.
- Disenso social. También se están generando videos de falsos ataques a civiles en distintos lugares del mundo, generalmente por parte de minorías hacia las que se pretende generar un odio colectivo. Estos videos son especialmente peligrosos por el daño potencial que pueden causar a las personas de estas minorías.
- Estafas. Con la IA es posible captar una imagen de una persona y generar un video falso para tratar de suplantarla. Estos videos se pueden emplear para acceder a sus cuentas bancarias o sus redes sociales, y también se usan con la famosa estafa del ‘familiar en apuros’.
- Daños a la reputación. Los ‘deepfakes’ pueden representar esencialmente a cualquier persona realizando actos reprobables que podrían dañar su reputación, sobre todo si se vuelven virales en las redes sociales. Deshacer este daño es prácticamente imposible, y puede afectar tanto a particulares como a instituciones.
Las regulaciones que pueden frenar el auge de los ‘deepfakes’
Ante el peligro creciente del auge de los ‘deepfakes’, se hace necesario adoptar medidas que puedan contener la desinformación y prevenir el uso pernicioso de la IA generativa. Estas medidas regulatorias se pueden aplicar desde los mismos modelos de IA hasta las plataformas donde se publican contenidos, aunque cada instancia presenta sus propias dificultades.
Salvaguardas en los modelos de IA
La opción ideal sería que todos los modelos de IA generativa de video dispusieran de salvaguardas que impidan a la IA crear contenidos potencialmente perniciosos o de desinformación. Algunas ya están en vigor. Al crear video a partir de texto en un modelo como Veo 3, por ejemplo, no podremos generar videos grotescos o representando a figuras públicas diciendo contenidos inflamatorios.
El problema es que estos modelos de IA no son infalibles, con lo que sigue habiendo formas de ‘rodear’ estas salvaguardas para crear contenidos potencialmente dañinos. Además, no todos los modelos de IA están regulados por entidades occidentales. Podrían desarrollarse modelos en países como Rusia, Irán o Corea del Norte que no tengan estas salvaguardas cuando se trata de atacar a gobiernos norteamericanos o europeos.
Bloqueo de modelos de IA no regulados
Para estos modelos de IA desregulados, se podrían implementar bloqueos que impidan su acceso desde países occidentales. Por ejemplo, una persona en España no podría acceder a un modelo de IA generativo que opere desde países hostiles. El problema de esta medida es que solo afectaría a los ciudadanos que se encuentran en territorio occidental, y no impediría a los nativos de países hostiles usar el modelo con fines perniciosos.
Monitorización de las redes sociales
A la hora de impedir que los ‘deepfakes’ causen impacto en la sociedad, una forma más efectiva de lograrlo podría ser el monitoreo de las redes sociales. Esta medida ya está en vigor y, de hecho, existía con anterioridad a la IA. Sin embargo, la moderación –es decir, la censura– en las redes sociales nunca ha sido 100% efectiva, y los nuevos contenidos generados por IA no solo son más difíciles de detectar, sino que pueden producirse en masa.
Agravamiento de penas
Reformar el código penal para incrementar las penas a quienes usan la IA con fines de desinformación o estafa puede ser una manera de disuadir su uso pernicioso en las redes sociales, pero, de nuevo, estas penas solo se aplicarían en los países que las impongan. Si el contenido fraudulento proviene de terceros países donde los ‘deepfakes’ están despenalizados para su uso contra Occidente, el agravamiento de las penas en Europa no servirá de mucho.
Concienciación de la ciudadanía
Una medida algo más efectiva podría pasar por la concienciación de la ciudadanía frente al auge de contenidos fraudulentos en las redes sociales. Si la población entiende mejor lo que es un ‘deepfake’ puede estar más preparada para identificarlos y no dejarse llevar por ellos. No obstante, campañas contra los contenidos falsos en internet ya existen desde hace décadas, y, de nuevo, el realismo de los ‘deepfakes’ con IA es muy superior al de los contenidos manuales.
La IA generativa de video se puede utilizar de manera responsable
A medida que las instituciones europeas se esfuerzan por establecer límites al uso pernicioso de la IA, la tecnología sigue evolucionando. En una nota positiva, sigue habiendo muchos usos constructivos y creativos a los que se puede dedicar la IA, y estos usos son incentivados por las redes sociales. Gracias a la IA, ahora cualquier persona puede crear videos de calidad sobre contenidos documentales, de valores sociales o de simple ficción.
La IA únicamente necesita una descripción de texto clara para generar un video acorde, pero presenta un potencial creativo todavía mayor si se asocia con un editor de video más completo como Wondershare Filmora. Aquí, la IA de texto a video se ve complementada por herramientas de edición tradicionales como los filtros, las transiciones, los fotogramas clave y muchas más, con las que cualquiera puede tener un pequeño estudio de cine en casa.
Las distintas herramientas de Filmora para la IA de video
Filmora utiliza la IA de Veo 3 –desarrollada por Google– para generar videos a partir de las instrucciones de texto de los usuarios. Estos clips de video pueden incluir diálogos en múltiples idiomas, perfectamente sincronizados con la imagen. Tras crear los clips con IA, se pueden integrar fácilmente en la línea de tiempo para generar un proyecto de video que puede ser de varios minutos o de varias horas, completo con herramientas como:
- Recursos libres de derechos. Otros editores de video no disponen de bibliotecas de recursos propias, con lo que se hace necesario pagarlas de manera separada a terceros. En Filmora, en cambio, los usuarios disponen de más de dos millones de recursos integrados en la plataforma, totalmente libres de derechos.
- Herramientas de edición dinámica. Además de las herramientas básicas de edición como el recorte de clips o el montaje en la línea de tiempo, Filmora también cuenta con herramientas dinámicas como los fotogramas clave, la pantalla verde o el seguimiento de movimiento, ideales para crear videos de alta calidad.
- Interfaz apta para todo tipo de usuarios. La apuesta de Filmora también pasa por ofrecer un entorno de trabajo simplificado que permite editar videos de forma más intuitiva que otros editores de video. Filmora se consolida entonces como una herramienta ideal tanto para editores amateur como para profesionales.
Poner límites a los ‘deepfakes’ es tarea de todos
El problema de los ‘deepfakes’ lleva años en circulación, la IA marca un nuevo umbral de desafío a la hora de atajarlo. Es cierto que se trata de un problema complejo y de difícil solución, pero se le puede poner coto combinando múltiples medidas como la regulación de los modelos IA, la moderación en las redes sociales, el agravamiento de penas y la concienciación de la población general.
En última instancia, todos los eslabones de la sociedad deben operar al unísono para tratar de poner límites a los ‘deepfakes’, ya sea aprendiendo a identificarlos –para, primero, no compartirlos y, segundo, denunciarlos– o creando contenidos con IA que sean constructivos y que no traten de presentar información falsa. Mediante este esfuerzo colectivo, el uso de herramientas como Filmora es seguro y puede dar lugar a grandes contenidos con IA.
Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados