Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / Deepfake

Deepfake más sofisticadas que nunca: estafas con voz clonada por inteligencia artificial van en aumento

La combinación de IA y manipulación emocional representa un nuevo reto para las familias.

Deepfake más sofisticadas que nunca: estafas con voz clonada por inteligencia artificial van en aumento

Mexicali,B.C.- Las estafas con voz clonada por inteligencia artificial (IA) están alcanzando niveles alarmantes de sofisticación, y cualquier persona podría ser víctima. Expertos alertan sobre los riesgos y ofrecen consejos para proteger a las familias.

Las llamadas falsas creadas con tecnología de deepfake de voz están dejando de ser ciencia ficción. Hoy, basta con unos segundos de audio público —como un mensaje de WhatsApp, un video en redes sociales o una nota de voz— para que los delincuentes reproduzcan con increíble precisión la voz de cualquier persona y la usen para engañar a sus familiares.

Este tipo de estafas, también conocidas como “vishing con IA”, utilizan inteligencia artificial generativa para imitar el tono, ritmo y acento de la voz de una persona. Los criminales luego usan esa voz para simular llamadas de emergencia, pedir dinero con urgencia o suplantar la identidad de un familiar o jefe en contextos laborales, publica el portal Mashable.

¿Cómo funcionan estas estafas?

  1. Obtención de la voz: Los delincuentes extraen grabaciones de redes sociales, mensajes de voz o incluso audios de videos públicos.
  2. Generación de la voz falsa: Con herramientas de IA como ElevenLabs o Voicify, pueden recrear voces realistas en minutos.
  3. El engaño: La llamada parece venir de un familiar o conocido que dice estar en peligro o necesitar ayuda económica urgente.

Casos reales

En Estados Unidos, una madre recibió una llamada que parecía provenir de su hija, quien supuestamente había sido secuestrada. La voz lloraba y pedía dinero. Todo era falso, pero la voz era tan creíble que la mujer estuvo a punto de transferir los fondos. Casos similares ya se han reportado en México, principalmente en zonas urbanas y con personas adultas mayores como blanco principal.

¿Cómo protegerse?

Las autoridades y especialistas en ciberseguridad recomiendan estas medidas:

  • Establecer una palabra clave familiar que se pueda usar en emergencias reales.
  • Desconfiar de llamadas urgentes que pidan dinero o datos personales, aunque la voz suene familiar.
  • Verificar la información antes de actuar: colgar y llamar directamente al número habitual de la persona.
  • Limitar el contenido de voz público, como mensajes con información personal en redes sociales.
  • Configurar privacidad en aplicaciones que permitan compartir notas de voz o mensajes de audio.

Tecnología al alcance de todos, incluso de los delincuentes

Herramientas de clonación de voz están disponibles en línea y, muchas veces, de forma gratuita o con versiones de prueba. Su uso legítimo incluye doblaje, accesibilidad o entretenimiento, pero en manos equivocadas pueden convertirse en armas para la extorsión o el fraude.

La combinación de IA y manipulación emocional representa un nuevo reto para las familias. “Es una evolución del viejo cuento del tío, pero con tecnología avanzada. El mejor antídoto sigue siendo la comunicación constante y la prevención”, concluyen expertos en seguridad digital.

Sigue nuestro canal de WhatsApp

Recibe las noticias más importantes del día. Da click aquí

Temas relacionados