¿Cómo prevenir estafas por clonación de voz con IA?
Los delincuentes obtienen muestras de audio de sus víctimas para crear mensajes falsos y engañar a familiares y amigos, solicitando dinero bajo falsas emergencias.

CIUDAD DE MÉXICO.- En 2024, la Secretaría de Seguridad y Protección Ciudadana de México alertó sobre el incremento de estafas en línea, un delito que busca engañar a las víctimas a través de medios electrónicos para obtener su información personal o financiera. Entre las modalidades más comunes se encuentra la suplantación de identidad, en la que los delincuentes intentan engañar a los contactos de la víctima.
Con el desarrollo de la Inteligencia Artificial (IA), los ciberdelincuentes han encontrado nuevas herramientas para cometer fraudes, una de ellas es la clonación de voz. Este método les permite imitar la voz de una persona y utilizarla para pedir dinero o información a familiares y amigos.
El Consejo Nacional de Seguridad Privada advierte que los delincuentes pueden obtener una muestra de voz de la víctima a través de llamadas, notas de voz o videos en redes sociales. Con esta grabación, crean audios falsos y los envían a los contactos de la víctima, alegando situaciones de emergencia, como accidentes o secuestros, para exigir dinero.
¿Cómo evitar ser víctima de estos fraudes?
Para evitar caer en estas estafas, McAfee recomienda establecer una palabra clave con familiares y amigos que solo ellos conozcan. De este modo, si alguien recibe un mensaje de voz pidiendo ayuda, podrá verificar su autenticidad antes de actuar.
Otra medida importante es confirmar cualquier solicitud de dinero contactando directamente a la persona involucrada. Además, se aconseja no descargar aplicaciones de dudosa procedencia, ya que algunas pueden grabar la voz del usuario sin su conocimiento.
Por último, la Secretaría de Seguridad y Protección Ciudadana recomienda no compartir información privada en redes sociales, ya que esto facilita a los estafadores obtener datos para hacer más creíbles sus engaños.
¿Qué hacer si ya fuiste víctima?
Si alguien ha sido víctima de una estafa con clonación de voz, las autoridades aconsejan no actuar impulsivamente y mantener la calma. Pensar con claridad permite tomar mejores decisiones y evitar caer en más engaños.
También es fundamental guardar todas las pruebas del fraude, como mensajes o audios recibidos, para presentar una denuncia formal. Esto ayudará a las autoridades a rastrear a los delincuentes y prevenir futuros casos.
Finalmente, se recomienda contactar a la Policía Cibernética de la localidad para reportar el incidente. Actuar con rapidez puede evitar que más personas sean víctimas de estos fraudes que se aprovechan del avance tecnológico para delinquir.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos

Nueva amenaza en esta era digital: asistentes de IA abren una peligrosa puerta a hackers con ataques invisibles que pueden robar dinero, modificar datos y manipular órdenes en tiempo real

No es una amenaza futura, ya está ocurriendo: Banxico advierte que la inteligencia artificial ya forma parte de los riesgos cibernéticos para la estabilidad financiera, el banco alerta que ataques podrían afectar la operación del sistema financiero mexicano

Gafas Quark AI de Alibaba: el dispositivo de inteligencia artificial que promete revolucionar tus compras online y traducciones en tiempo real

Guía práctica y fácil para identificar imágenes y videos creados con IA: técnicas paso a paso verificadas por expertos para detectar contenido falso y evitar la desinformación sin necesidad de ser un experto
Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados