¿Cómo prevenir estafas por clonación de voz con IA?
Los delincuentes obtienen muestras de audio de sus víctimas para crear mensajes falsos y engañar a familiares y amigos, solicitando dinero bajo falsas emergencias.

CIUDAD DE MÉXICO.- En 2024, la Secretaría de Seguridad y Protección Ciudadana de México alertó sobre el incremento de estafas en línea, un delito que busca engañar a las víctimas a través de medios electrónicos para obtener su información personal o financiera. Entre las modalidades más comunes se encuentra la suplantación de identidad, en la que los delincuentes intentan engañar a los contactos de la víctima.
Con el desarrollo de la Inteligencia Artificial (IA), los ciberdelincuentes han encontrado nuevas herramientas para cometer fraudes, una de ellas es la clonación de voz. Este método les permite imitar la voz de una persona y utilizarla para pedir dinero o información a familiares y amigos.
El Consejo Nacional de Seguridad Privada advierte que los delincuentes pueden obtener una muestra de voz de la víctima a través de llamadas, notas de voz o videos en redes sociales. Con esta grabación, crean audios falsos y los envían a los contactos de la víctima, alegando situaciones de emergencia, como accidentes o secuestros, para exigir dinero.
¿Cómo evitar ser víctima de estos fraudes?
Para evitar caer en estas estafas, McAfee recomienda establecer una palabra clave con familiares y amigos que solo ellos conozcan. De este modo, si alguien recibe un mensaje de voz pidiendo ayuda, podrá verificar su autenticidad antes de actuar.
Otra medida importante es confirmar cualquier solicitud de dinero contactando directamente a la persona involucrada. Además, se aconseja no descargar aplicaciones de dudosa procedencia, ya que algunas pueden grabar la voz del usuario sin su conocimiento.
Por último, la Secretaría de Seguridad y Protección Ciudadana recomienda no compartir información privada en redes sociales, ya que esto facilita a los estafadores obtener datos para hacer más creíbles sus engaños.
¿Qué hacer si ya fuiste víctima?
Si alguien ha sido víctima de una estafa con clonación de voz, las autoridades aconsejan no actuar impulsivamente y mantener la calma. Pensar con claridad permite tomar mejores decisiones y evitar caer en más engaños.
También es fundamental guardar todas las pruebas del fraude, como mensajes o audios recibidos, para presentar una denuncia formal. Esto ayudará a las autoridades a rastrear a los delincuentes y prevenir futuros casos.
Finalmente, se recomienda contactar a la Policía Cibernética de la localidad para reportar el incidente. Actuar con rapidez puede evitar que más personas sean víctimas de estos fraudes que se aprovechan del avance tecnológico para delinquir.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos

La empresa turca Baykar presentó el K2: nuevo dron kamikaze que puede costar hasta 80,000 dólares y desafía al Shahed-136 de Irán con capacidad de reutilización y navegación por visión artificial

Meta prepara el smartwatch “Malibu 2” con Meta AI y enfoque en salud

Una sola noche de sueño podría revelar riesgo de Parkinson, cáncer o infarto: modelo de inteligencia artificial de Stanford detecta más de 130 enfermedades al analizar señales cerebrales y cardíacas, según estudio científico internacional

Jack Dorsey, fundador de Twitter: “La IA no reduce el trabajo; lo transforma, lo acelera, y en casos más honestos, lo reemplaza”, afirmó tras despedir a 4,000 personas por la Inteligencia Artificial

Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados