Ciudad de México.- Las estafas telefónicas mediante la clonación de voz con inteligencia artificial han comenzado a multiplicarse en México, situación que ha encendido las alertas de la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef).
Por tal motivo las autoridades alertan sobre nuevas modalidades de fraude, donde delincuentes utilizan tecnología de inteligencia artificial (IA) para imitar la voz de familiares, principalmente de hijos, con el objetivo de obtener información personal o dinero de sus víctimas.
La técnica utilizada por los estafadores consiste en recopilar muestras de voz de redes sociales, mensajes de voz o vídeos compartidos en distintas plataformas. Posteriormente, estas grabaciones se procesan mediante sistemas de inteligencia artificial capaces de replicar de manera convincente el tono, timbre y forma de hablar de una persona.
De este modo, los delincuentes realizan llamadas simulando ser un familiar en situación de urgencia, con la finalidad de manipular o extorsionar a los destinatarios.
El gobierno mexicano, a través de la Secretaría de Seguridad y Protección Ciudadana (SSPC) y Condusef, ha publicado una serie de recomendaciones para hacer frente a este tipo de fraudes.
Entre las medidas recomendadas se encuentra no compartir datos personales ni financieros por teléfono, y en caso de recibir una llamada sospechosa de un supuesto familiar, colgar y buscar comunicarse directamente con la persona involucrada mediante otros medios para verificar su situación.
Algunas recomendaciones para evitar la clonación de voz para evitar este tipo de estafas son:
- Limitar la publicación de contenido de audio: Evita compartir grabaciones de voz en plataformas públicas o redes sociales, ya que esto podría facilitar la clonación.
- Utilizar sistemas de autenticación: Cuando se usan aplicaciones o servicios que requieren reconocimiento de voz, es preciso optar por sistemas de autenticación multifactor que no dependan exclusivamente de la voz.
- Mantener actualizados los dispositivos y software: Hay que asegurarse de que los dispositivos y aplicaciones estén actualizados con los últimos parches de seguridad para evitar vulnerabilidades.
- Cuidado con las aplicaciones que solicitan acceso al micrófono: Solo otorgar permiso a aplicaciones confiables y necesarias para el uso diario.
- Considerar el uso de técnicas de protección de voz: Algunas empresas están desarrollando tecnologías para proteger las voces de la clonación, como agregar «ruido» a las grabaciones para dificultar su replicación.
- Establecer palabras clave familiares: Para casos de emergencia, se recomienda usar ‘palabras claves’ de modo que sirvan como mecanismo de autenticación en comunicaciones urgentes.
Algo importante a tomar en cuenta es el factor de que la tecnología avanza rápidamente, y la protección total puede ser un desafío. Sin embargo, tomando estas precauciones pueden reducir este tipo de riesgos.
Las autoridades piden conservar la calma y reportar cualquier incidente o intento de fraude tanto a las instituciones financieras como a la policía cibernética. De la misma manera, la Condusef ha abierto canales de denuncia y orientación para usuarios afectados o con dudas sobre este tipo de delitos.
De acuerdo a cifras recabadas por la SSPC, una encuesta realizada por una empresa de seguridad tecnológica reveló que 1 de cada 10 personas encuestadas manifestó haber recibido un mensaje de un clon de voz con IA, y el 77 por ciento aseguró haber sido víctima de fraude por medio de este mismo método. Estos porcentajes muestran la rapidez con la que este tipo de delitos se expande y el nivel de afectación que puede tener sobre la población. (El Heraldo de Saltillo)
🚨 Estafadores usan inteligencia artificial para imitar la voz de tus seres queridos.
✅ Cuelga y verifica directamente con tu familiar por otro medio.#AltoalFraude #CONDUSEF #FraudesConIA #EvitaFraudes #SeguridadFinanciera pic.twitter.com/aHftL5PtWA— CONDUSEF (@CondusefMX) August 4, 2025



