Fraudes por clonación de voz con IA: estas son las recomendaciones para evitar caer en ellas, según la SSPC

De manera reciente se ha identificado la suplantación de identidad por medio de la voz para pedir favores económicos

Guardar
Una de cada 10 personas
Una de cada 10 personas han manifestado haber recibido un mensaje de un clon de voz con IA, según una encuesta consultada por la SSPC. (Composición: Infobae / Jazmine Angulo)

El creciente uso de aplicaciones de Inteligencia Artificial (IA), así como el envío de información por medio de la voz a través de diversas aplicaciones, han llevado a los estafadores a implementar nuevas formas de suplantación de identidad con fines económicos.

El uso cotidiano de mensajes de voz ha abierto la posibilidad de que por medio de la IA se cometan fraudes al clonar la voz de las personas para solicitar dinero o favores, lo que ha generado alertas para evitar caer en esta modalidad de delito.

Según datos recabados por la Secretaría de Seguridad y Protección Ciudadana (SSPC), una encuesta realizada por una reconocida empresa de seguridad tecnológica reveló que 1 de cada 10 personas encuestadas manifestó haber recibido un mensaje de un clon de voz con IA, y el 77% dijo haber sido víctima de fraude por medio de este mismo método.

A través de las innovaciones tecnológicas han comenzado a analizar el tono, la entonación y la pronunciación de las personas, con lo que se alcanza una mayor precisión en la clonación de las voces, lo que se ha convertido en un riesgo grave para la suplantación de identidad.

Este modelo de fraude es
Este modelo de fraude es atractivo para los ciberdelincuentes debido a que establecen contacto con personas cercanas a la víctima.

Modus operandi de los delincuentes

La SSPC señala que esta modalidad suele ser atractiva para los ciberdelincuentes debido a que realizan las siguientes acciones:

  • Identifican el número telefónico de alguna persona.
  • Registran su cuenta u otro servicio de mensajería en un dispositivo diferente.
  • Al tener acceso a su cuenta y clonando su voz, los ciberdelincuentes establecen contacto con personas cercanas a la víctima para solicitar dinero por una supuesta emergencia.

Además, detalló que los especialistas han detectado patrones en el actuar de los ciberdelincuentes como los siguientes:

  • Uso frecuente de frases concretas.
  • Utilizan tonos propios de una emergencia para generar angustia y perturbar a la víctima.
  • Argumentan eventos como robos, accidentes o secuestros.
  • Muestran evidente urgencia por el envío inmediato de dinero.

¿Cuáles son las recomendaciones para no caer es este fraude?

Una persona preocupada revisa su
Una persona preocupada revisa su cuenta bancaria tras ser víctima de una estafa financiera, reflejando angustia y desconfianza. - (Imagen Ilustrativa Infobae)

La SSPC, a través de la Dirección General de Gestión de Servicios, Ciberseguridad y Desarrollo Tecnológico, emitió una serie de recomendaciones para reducir el riesgo de ser víctimas de este delito, los cuales son los siguientes:

  • Proteger la privacidad de la voz; evitar compartir grabaciones o mensajes de voz en redes sociales u otras plataformas públicas donde puedan ser accesibles para los ciberdelincuentes.
  • Evitar responder llamadas o mensajes de números desconocidos, y en caso de tener que hacerlo, no brindar información hasta confirmar la veracidad de la fuente.
  • Activar la verificación en dos pasos y establecer una palabra clave con familiares.
  • No actuar de manera impulsiva ante la presión o angustia del hecho, pensar con claridad permitirá identificar las señales de alerta.
  • Ante la solicitud de dinero por supuestas emergencias, establecer comunicación con la persona por otro medio.
  • Compartir con amigos y familiares información sobre estafas con voces clonadas con IA para alertarlos.