¿Cómo prevenir estafas por clonación de voz con IA?
Los delincuentes obtienen muestras de audio de sus víctimas para crear mensajes falsos y engañar a familiares y amigos, solicitando dinero bajo falsas emergencias.

CIUDAD DE MÉXICO.- En 2024, la Secretaría de Seguridad y Protección Ciudadana de México alertó sobre el incremento de estafas en línea, un delito que busca engañar a las víctimas a través de medios electrónicos para obtener su información personal o financiera. Entre las modalidades más comunes se encuentra la suplantación de identidad, en la que los delincuentes intentan engañar a los contactos de la víctima.
Con el desarrollo de la Inteligencia Artificial (IA), los ciberdelincuentes han encontrado nuevas herramientas para cometer fraudes, una de ellas es la clonación de voz. Este método les permite imitar la voz de una persona y utilizarla para pedir dinero o información a familiares y amigos.
El Consejo Nacional de Seguridad Privada advierte que los delincuentes pueden obtener una muestra de voz de la víctima a través de llamadas, notas de voz o videos en redes sociales. Con esta grabación, crean audios falsos y los envían a los contactos de la víctima, alegando situaciones de emergencia, como accidentes o secuestros, para exigir dinero.
¿Cómo evitar ser víctima de estos fraudes?
Para evitar caer en estas estafas, McAfee recomienda establecer una palabra clave con familiares y amigos que solo ellos conozcan. De este modo, si alguien recibe un mensaje de voz pidiendo ayuda, podrá verificar su autenticidad antes de actuar.
Otra medida importante es confirmar cualquier solicitud de dinero contactando directamente a la persona involucrada. Además, se aconseja no descargar aplicaciones de dudosa procedencia, ya que algunas pueden grabar la voz del usuario sin su conocimiento.
Por último, la Secretaría de Seguridad y Protección Ciudadana recomienda no compartir información privada en redes sociales, ya que esto facilita a los estafadores obtener datos para hacer más creíbles sus engaños.
¿Qué hacer si ya fuiste víctima?
Si alguien ha sido víctima de una estafa con clonación de voz, las autoridades aconsejan no actuar impulsivamente y mantener la calma. Pensar con claridad permite tomar mejores decisiones y evitar caer en más engaños.
También es fundamental guardar todas las pruebas del fraude, como mensajes o audios recibidos, para presentar una denuncia formal. Esto ayudará a las autoridades a rastrear a los delincuentes y prevenir futuros casos.
Finalmente, se recomienda contactar a la Policía Cibernética de la localidad para reportar el incidente. Actuar con rapidez puede evitar que más personas sean víctimas de estos fraudes que se aprovechan del avance tecnológico para delinquir.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos
Amazon presenta Alexa+, una nueva versión de su asistente de voz con IA generativa: ¿Cuál es el precio?
Google ‘pone a temblar’ a Grok, ChatGPT y Perplexity con nueva función
Revelan las limitaciones de los modelos de IA en un estudio
Apple retrasa el lanzamiento de su Siri mejorada con IA, llegará a fin de año