Si te llama un familiar solicitando dinero: así puedes saber si es real o es una voz clonada con IA

Existe una serie de preguntas que se deben implementar cuando la persona detrás de la línea pide datos personales, como contraseñas o números de cuentas bancarias para evitar estafas

Guardar
La reacción inmediata puede ser
La reacción inmediata puede ser ayudar pero hay que considerar que puede ser un engaño. (Imagen Ilustrativa Infobae)

Los ciberdelincuentes han encontrado nuevas formas de estafar a sus víctimas, siendo una de las más alarmantes, la clonación de voz, una técnica que utiliza inteligencia artificial para replicar con precisión las voces de personas específicas.

Según informó el Instituto Nacional de Ciberseguridad (Incibe), este tipo de fraude ha permitido a los estafadores suplantar a familiares, amigos o compañeros de trabajo, logrando que las víctimas realicen transferencias de dinero o compartan información confidencial.

La clave de este tipo de estafas radica en el uso de software de clonación de voz, que analiza grabaciones previas de una persona para generar audios artificiales que imitan su tono, ritmo y acento. Estas grabaciones son tan convincentes que, en muchos casos, resultan indistinguibles de una conversación real.

La víctima piensa que está
La víctima piensa que está hablando con un ser querido. (Imagen Ilustrativa Infobae)

Según detalló el Incibe, los delincuentes pueden manipular estos audios para que parezca que una persona cercana está solicitando ayuda urgente, como dinero para una emergencia, así que es necesario conocer cómo identificar si quién llama sí necesita ayuda o es una farsa.

Cómo estafan a través de llamadas telefónicas clonadas con IA

El objetivo principal de los ciberdelincuentes es aprovechar la confianza de las víctimas para obtener beneficios económicos o información sensible. Según explicó el Incibe, los estafadores suelen hacerse pasar por familiares o personas de confianza, utilizando las grabaciones clonadas para crear situaciones de urgencia.

Asimismo, el proceso comienza con la obtención de grabaciones de voz de la persona que desean suplantar. Estas grabaciones pueden ser extraídas de mensajes de voz, videos en redes sociales o cualquier otro contenido público.

Los criminales recopilan la voz
Los criminales recopilan la voz de una persona a través de una llamada u otros mecanismos fraudulentos. (Imagen Ilustrativa Infobae)

Una vez que tienen suficiente material, los delincuentes emplean herramientas de IA para replicar la voz con un alto nivel de fidelidad. Esto les permite generar audios personalizados que se utilizan para engañar a las víctimas. Pueden simular que un hijo o un hermano está en problemas y necesita dinero de manera inmediata.

Cuál es la mejor defensa para este tipo de fraude telefónico

Ante el aumento de este tipo de estafas, los expertos sugieren tomar medidas preventivas para evitar caer en la trampa. Una de las estrategias más efectivas es realizar una pregunta de seguridad que solo la persona real pueda responder.

Preguntar algo como “¿Cuál fue el nombre de mi primera mascota?” puede ser suficiente para desenmascarar a un estafador. Este tipo de preguntas funcionan porque los delincuentes, aunque tengan acceso a la voz clonada, no poseen el conocimiento personal necesario para responder correctamente.

Es clave hacer preguntas para
Es clave hacer preguntas para verificar la información. (Imagen Ilustrativa Infobae)

También, se debe desconfiar de cualquier llamada que solicite transferencias de dinero de manera urgente, sobre todo si proviene de un número desconocido o si la situación parece inusual.

Además, verificar la identidad del interlocutor a través de otros medios, como una videollamada o un mensaje directo, puede ser una manera adicional de verificar la autenticidad de la solicitud.

Qué impacto impacto está teniendo la tecnología de “deepfake de voz”

El fenómeno de la clonación de voz forma parte de una tendencia más amplia conocida como “deepfake de voz”, que utiliza inteligencia artificial para replicar voces humanas con grandes similitudes.

Muchos pueden caer en esta
Muchos pueden caer en esta trampa. (Imagen Ilustrativa Infobae)

Según el Incibe, esta tecnología representa un gran reto para las víctimas, porque los audios generados son tan realistas que pueden convencer incluso a las personas más cautelosas.

Asimismo, el uso de esta tecnología no solo se limita a estafas individuales, se han reportado casos en los que los delincuentes usan voces clonadas para suplantar a ejecutivos de empresas, logrando que empleados realicen transferencias de grandes sumas de dinero a cuentas fraudulentas.

Este tipo de ataques, conocidos como fraudes de CEO, han generado pérdidas millonarias en diversas organizaciones alrededor del mundo, así que es crucial seguir las pautas de seguridad para evitar comprometer la seguridad financiera propia o de la empresa donde se trabaja.