
El creciente uso de aplicaciones de Inteligencia Artificial (IA), así como el envío de información por medio de la voz a través de diversas aplicaciones, han llevado a los estafadores a implementar nuevas formas de suplantación de identidad con fines económicos.
El uso cotidiano de mensajes de voz ha abierto la posibilidad de que por medio de la IA se cometan fraudes al clonar la voz de las personas para solicitar dinero o favores, lo que ha generado alertas para evitar caer en esta modalidad de delito.
Según datos recabados por la Secretaría de Seguridad y Protección Ciudadana (SSPC), una encuesta realizada por una reconocida empresa de seguridad tecnológica reveló que 1 de cada 10 personas encuestadas manifestó haber recibido un mensaje de un clon de voz con IA, y el 77% dijo haber sido víctima de fraude por medio de este mismo método.
A través de las innovaciones tecnológicas han comenzado a analizar el tono, la entonación y la pronunciación de las personas, con lo que se alcanza una mayor precisión en la clonación de las voces, lo que se ha convertido en un riesgo grave para la suplantación de identidad.

Modus operandi de los delincuentes
La SSPC señala que esta modalidad suele ser atractiva para los ciberdelincuentes debido a que realizan las siguientes acciones:
- Identifican el número telefónico de alguna persona.
- Registran su cuenta u otro servicio de mensajería en un dispositivo diferente.
- Al tener acceso a su cuenta y clonando su voz, los ciberdelincuentes establecen contacto con personas cercanas a la víctima para solicitar dinero por una supuesta emergencia.
Además, detalló que los especialistas han detectado patrones en el actuar de los ciberdelincuentes como los siguientes:
- Uso frecuente de frases concretas.
- Utilizan tonos propios de una emergencia para generar angustia y perturbar a la víctima.
- Argumentan eventos como robos, accidentes o secuestros.
- Muestran evidente urgencia por el envío inmediato de dinero.
¿Cuáles son las recomendaciones para no caer es este fraude?

La SSPC, a través de la Dirección General de Gestión de Servicios, Ciberseguridad y Desarrollo Tecnológico, emitió una serie de recomendaciones para reducir el riesgo de ser víctimas de este delito, los cuales son los siguientes:
- Proteger la privacidad de la voz; evitar compartir grabaciones o mensajes de voz en redes sociales u otras plataformas públicas donde puedan ser accesibles para los ciberdelincuentes.
- Evitar responder llamadas o mensajes de números desconocidos, y en caso de tener que hacerlo, no brindar información hasta confirmar la veracidad de la fuente.
- Activar la verificación en dos pasos y establecer una palabra clave con familiares.
- No actuar de manera impulsiva ante la presión o angustia del hecho, pensar con claridad permitirá identificar las señales de alerta.
- Ante la solicitud de dinero por supuestas emergencias, establecer comunicación con la persona por otro medio.
- Compartir con amigos y familiares información sobre estafas con voces clonadas con IA para alertarlos.