La pregunta que siempre debes hacer cuando te pidan dinero o datos personales en una llamada

Las voces clonadas con inteligencia artificial han hecho más difícil reconocer si un amigo o familiar está de verdad en apuros o se trata de una estafa

Guardar
Antes de contestar se debe
Antes de contestar se debe considerar cómo proceder para evitar riesgos. (Imagen Ilustrativa Infobae)

Los ciberdelincuentes han encontrado nuevas formas de explotar el avance de la inteligencia artificial (IA) para cometer estafas telefónicas, siendo uno de los métodos más alarmantes la clonación de voz, que permite replicar con gran precisión las voces de personas cercanas a la víctima o que simulan ser trabajadores de empresas legítimas.

Este tipo de fraude, que utiliza herramientas avanzadas de IA, ha generado preocupación por su capacidad para engañar a las víctimas y obtener tanto grandes sumas de dinero como información confidencial como números de identificación, contraseñas y más datos financieros.

De acuerdo con el Instituto Nacional de Ciberseguridad de España (Incibe), los delincuentes emplean software especializado para analizar grabaciones previas de una persona, para generar audios artificiales que imitan el tono, ritmo y acento y así cometer el ataque.

La llamada permite analizar el
La llamada permite analizar el registro de voz para luego replicarlo. (Imagen Ilustrativa Infobae)

Estas grabaciones falsas son usadas para suplantar la identidad de familiares, amigos o compañeros de trabajo, logrando que las víctimas confíen en la autenticidad de las llamadas.

Cuál es la pregunta clave para evitar caer en estafas por llamadas clonadas

Ante esta amenaza, los expertos en ciberseguridad sugieren implementar varias medidas de seguridad para protegerse de este tipo de estafas. Una de las estrategias más efectivas es realizar una pregunta de seguridad que solo la persona real pueda responder.

Se puede preguntar por el nombre de una mascota de la infancia o algún detalle personal que no sea de conocimiento público, en caso de que la persona que llama diga que es un familiar para identificar si se trata de una llamada legítima o de un intento de fraude.

Se debe desconfiar de las
Se debe desconfiar de las comunicaciones alarmantes. (Imagen Ilustrativa Infobae)

Los llamados “deepfakes de voz” son capaces de generar audios que, en muchos casos, resultan indistinguibles de una conversación real, pero no son capaces de adivinar preguntas muy específicas, que solo alguien cercano suele conocer.

Cómo los ciberdelincuentes pueden replicar la voz de una persona

El proceso detrás de estas estafas comienza con la recopilación de grabaciones de voz de la persona que se desea suplantar. Estas grabaciones pueden obtenerse de diversas fuentes, como mensajes de voz, videos en redes sociales o incluso llamadas telefónicas previas.

Una vez que los delincuentes cuentan con suficiente material, utilizan software de clonación de voz para crear audios artificiales que imitan con precisión las características vocales de la persona. Con estas herramientas, los estafadores pueden realizar llamadas en las que simulan ser un familiar o un colega de trabajo.

Los atacantes buscan manipular las
Los atacantes buscan manipular las emociones de la víctima. (Imagen Ilustrativa Infobae)

Durante la conversación, suelen apelar a la urgencia o a situaciones emocionales para presionar a la víctima. Pueden alegar que necesitan dinero de manera inmediata para resolver una emergencia o solicitar información confidencial bajo el pretexto de un trámite importante.

Qué impacto tienen estas estafas telefónicas

El uso de la clonación de voz no solo pone en riesgo los recursos económicos de las víctimas, sino su privacidad. Según detalló el Incibe, los ciberdelincuentes pueden utilizar la información obtenida para cometer otros delitos, como el robo de identidad o el acceso no autorizado a cuentas bancarias y plataformas digitales.

Además, este tipo de fraude plantea un desafío adicional para las autoridades, porque la sofisticación de las herramientas utilizadas dificulta la detección y el rastreo de los responsables.

Millones de dólares se han
Millones de dólares se han perdido por errores de empleados. (Imagen Ilustrativa Infobae)

Asimismo, este fenómeno no solo afecta a individuos, sino a empresas y organizaciones. En el ámbito corporativo, los delincuentes pueden hacerse pasar por ejecutivos para obtener datos sensibles o desviar fondos. Esto pone de manifiesto la necesidad de implementar protocolos de seguridad más estrictos, tanto a nivel personal como empresarial.

Cómo evitar fraudes relacionados con voces clonadas

Para minimizar el riesgo de ser víctima de estas estafas, el Incibe sugiere adoptar una serie de medidas preventivas. Además de realizar preguntas de seguridad, es fundamental desconfiar de llamadas que solicitan transferencias de dinero o información confidencial de manera urgente.

También, se debe verificar la identidad del interlocutor a través de otros medios, como una llamada directa al número oficial de la persona o entidad en cuestión.

Es crucial mantener la privacidad en las redes sociales, porque estas plataformas suelen ser una fuente de información para los ciberdelincuentes. Limitar la cantidad de datos personales compartidos públicamente puede reducir las posibilidades de que los estafadores obtengan material para clonar voces o planificar ciberataques.