El Imparcial / Mundo / IA

El aumento de fotos y videos de abuso sexual infantil “muy realista” creado con IA y excesiva demanda en EEUU alerta a las autoridades por las dificultades legales

Investigadores alertan sobre la rápida expansión de contenido generado por IA que simula abuso sexual infantil con un realismo cada vez mayor.

ESTADOS UNIDOS.— En los últimos meses, investigadores han detectado una avalancha de contenido sexual infantil generado por inteligencia artificial (IA).

Esta nueva ola preocupa por su realismo, su volumen creciente y las dificultades legales y operativas que representa para las autoridades.

Según la Fundación Internet Watch (IWF), solo en el primer semestre de 2025 se han detectado 1,286 videos de abuso infantil generados por IA a nivel mundial, en comparación con solo dos videos en el mismo periodo del año anterior.

De acuerdo con The New York Times, en Estados Unidos, el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) reportó 485,000 denuncias de imágenes y videos generados por IA durante los primeros seis meses del año, frente a 67,000 reportes en todo 2024.

¿Cómo se crean estas imágenes falsas?

El contenido proviene de modelos de IA generativa, desarrollados para crear imágenes o videos desde cero. Estas herramientas, como los generadores utilizados en aplicaciones comerciales, pueden simular rostros, cuerpos, voces y hasta escenarios completos.

Te puede interesar: Terapeuta infantil publicó videos que mostraban bebés siendo violados, además de que fingió en foros de internet ser un padre que abusaba sexualmente de sus hijos

En algunos casos, las imágenes de niños reales son utilizadas como base, tomadas de redes sociales o sitios escolares. En otros, el material es creado completamente por IA, pero con tal nivel de detalle que engaña al ojo humano.

Estamos presenciando un tsunami”, advirtió Derek Ray-Hill, director interino de la IWF. Añadió que estos videos “mezclan imágenes falsas con rostros reales”, lo que complica aún más su rastreo.

¿Qué dicen las autoridades y la ley?

Aunque las leyes federales en Estados Unidos consideran ilegales las imágenes de abuso sexual infantil, incluso si son generadas por IA, los tribunales aún están discutiendo los límites legales de estos contenidos cuando no se involucra a niños reales.

Un caso reciente en Wisconsin muestra este dilema: un hombre acusado de distribuir más de 13,000 imágenes sintéticas logró que un juez anulara un cargo, al argumentar que poseer ese tipo de material en casa podría estar protegido por la Primera Enmienda de la Constitución.

No obstante, el juicio continuará por los demás cargos. El acusado intentó compartir las imágenes con una menor en redes sociales, quien lo denunció.

El Departamento de Justicia considera que todas las formas de CSAM [material de abuso sexual infantil] generadas por IA son una amenaza grave y emergente”, declaró Matt Galeotti, jefe de la división criminal del Departamento de Justicia.

¿Qué medidas están tomando las empresas tecnológicas?

Al menos 35 empresas tecnológicas colaboran reportando estos contenidos al NCMEC. Amazon, a través de su servicio de nube, reportó haber retirado 380,000 incidentes de este tipo de imágenes en lo que va del año. OpenAI reportó 75,000 casos. Por su parte, Stability AI, empresa detrás de Stable Diffusion, reportó menos de 30.

Stability AI aseguró que ha tomado nuevas medidas de seguridad:

Estamos profundamente comprometidos a prevenir el uso indebido de nuestra tecnología, particularmente en la creación y difusión de contenido dañino”.

Amazon y OpenAI señalaron que han publicado en línea los detalles de sus esfuerzos para detectar y reportar este tipo de material.

¿Cómo circula este material y qué riesgos representa?

El contenido suele compartirse a través de foros clandestinos, plataformas de mensajería y redes sociales. Algunos grupos criminales incluso crean imágenes para luego extorsionar a los menores, según declaró un funcionario del Departamento de Justicia bajo condición de anonimato.

También se ha documentado el uso de aplicaciones para crear “desnudos falsos” (deepfakes) de menores utilizando sus fotografías reales, lo cual eleva el riesgo para niños y adolescentes que comparten imágenes en línea.

En diciembre de 2023, un equipo de la Universidad de Stanford detectó cientos de ejemplos de material ilegal en los datos usados para entrenar una versión temprana de un generador de imágenes. Aunque la empresa responsable dijo que esa versión no fue desarrollada bajo su control, el hallazgo mostró lo difícil que es contener la difusión de este contenido desde la raíz.

Te puede interesar: Suprema Corte declara imprescriptibles las demandas civiles por abuso sexual infantil: ningún plazo puede limitar la justicia para las víctimas

Las autoridades y organizaciones de protección infantil trabajan para reforzar leyes

La tecnología avanza más rápido que la legislación. Las autoridades y organizaciones de protección infantil trabajan para reforzar leyes estatales y federales que contemplen claramente este tipo de contenido. Más de 30 leyes estatales en EEUU ya criminalizan imágenes sintéticas con contenido de abuso infantil.

Pero mientras los sistemas legales y tecnológicos buscan adaptarse, la amenaza crece. La colaboración entre gobiernos, empresas, organizaciones y usuarios será clave para detectar, denunciar y prevenir el uso de IA con fines de explotación.

Es una señal de alerta”, concluyó Ray-Hill.

Temas relacionados