Cómo saber si una llamada telefónica es real o es clonada por inteligencia artificial

Los ciberdelincuentes pueden hacerse pasar por un familiar o un gerente de un banco para extorsionar a sus víctimas a que deben que transferir grandes sumas de dinero

Guardar
Este canal de comunicación es
Este canal de comunicación es usado para diferentes tipos de fraudes. (Imagen Ilustrativa Infobae)

Las estafas telefónicas han evolucionado con la llegada de la inteligencia artificial. Ya no se trata solo de llamadas fraudulentas de falsos agentes bancarios o familiares en apuros. Ahora, la clonación de voz permite a los estafadores imitar con precisión la voz de cualquier persona, engañando a sus víctimas con mensajes aparentemente genuinos.

Según el Instituto Nacional de Ciberseguridad de España (Incibe), el voice hacking es una técnica que emplea IA para replicar voces reales y hacer que los mensajes fraudulentos parezcan verídicos.

Esta tecnología se utiliza en diferentes tipos de fraudes, desde el vishing (estafas telefónicas que buscan robar datos sensibles) hasta la suplantación de identidad por voz, en la que los delincuentes imitan a familiares, amigos o superiores para manipular a sus víctimas.

Cómo reconocer una llamada clonada con inteligencia artificial

Las respuestas son monótonas y
Las respuestas son monótonas y pueden parecer sin sentido. (Imagen Ilustrativa Infobae)

Uno de los principales problemas del hacking de voz es que las llamadas falsas pueden sonar muy creíbles. Sin embargo, hay algunas señales que pueden indicar que una voz ha sido recientemente generada o manipulada por inteligencia artificial:

  • Tonos y pausas inusuales: las voces clonadas pueden tener una entonación mecánica, con pausas extrañas o falta de fluidez.
  • Falta de contexto: si la persona parece evitar ciertos detalles personales o responde de manera genérica, podría ser una señal.
  • Repetición de frases: algunas herramientas de clonación pueden generar respuestas limitadas, repitiendo palabras o estructuras similares en poco tiempo.
  • Solicitudes urgentes de dinero o datos personales: los estafadores buscan generar pánico para evitar que la víctima reflexione.
  • Verificación fallida: si se duda de la identidad de la persona, hay que hacer preguntas con respuestas que solo ella debería conocer. Si responde con evasivas, podría tratarse de un fraude.

Cuáles son los fraudes más comunes hechos con clonación de voz

El robo de información bancaria
El robo de información bancaria es muy común en estos casos. (Imagen ilustrativa Infobae)

Las estafas telefónicas con inteligencia artificial pueden tomar diversas formas, que pueden ser muy efectivas, pero algunas de las más habituales incluyen:

  • Llamadas bancarias falsas: un supuesto representante del banco solicita información personal o confirma transacciones sospechosas.
  • Familiares en peligro: la voz clonada de un ser querido informa sobre un secuestro o una emergencia médica y exige dinero.
  • Directivos falsos: un fraude corporativo en el que la voz da una orden para transferencias urgentes.
  • Atención al cliente fraudulento: empresas falsas llaman a las víctimas para pedirles datos de acceso a cuentas o servicios digitales.

Asimismo, casos como el de Jennifer DeStefano, quien recibió una llamada con la voz clonada de su hija afirmando que había sido secuestrada, o el fraude a una empresa británica que perdió 220.000 euros tras recibir instrucciones falsas de un supuesto CEO, demuestran que esta tecnología ya se está utilizando con éxito en delitos exigentes.

Qué riesgos implica ser víctima de una llamada clonada por inteligencia artificial

La salud mental puede verse
La salud mental puede verse deteriorada luego de esta estafa. (Imagen Ilustrativa Infobae)

El uso de la inteligencia artificial para clonar voces no solo supone un engaño puntual, sino que puede derivar en graves consecuencias para la víctima y su entorno.

  • Robo de identidad: los estafadores pueden acceder a cuentas bancarias y servicios online suplantando a la víctima.
  • Pérdida de dinero: desde transferencias fraudulentas hasta compras no autorizadas, el impacto financiero puede ser devastador.
  • Daño reputacional: la clonación de voz se ha utilizado para difundir mensajes falsos que perjudican la imagen de una persona.
  • Manipulación emocional: la suplantación de familiares o amigos puede generar pánico y llevar a tomar decisiones precipitadas.

En el caso de Ruth Card, una mujer canadiense de 73 años, la voz clonada de su nieto la convenció de retirar dinero del banco para pagar una supuesta fianza. Por suerte, descubrió el engaño antes de entregar el dinero, pero muchas otras víctimas no tienen la misma suerte.

Cómo protegerse de este tipo de estafas telefónicas que usan IA

Nunca se debe proporcionar una
Nunca se debe proporcionar una datos confidenciales. (Imagen Ilustrativa Infobae)

Ante la creciente amenaza del hacking de voz, las autoridades de seguridad cibernética aseguran que es clave adoptar medidas de seguridad para evitar ser víctima de este tipo de fraudes:

  • Desconfiar de llamadas inesperadas de números desconocidos.
  • Verificar la identidad de la persona antes de compartir información sensible.
  • No proporcionar datos personales ni bancarios por teléfono.
  • Implementar preguntas de seguridad que solo la persona real pueda responder.
  • Informar a familiares y empleados sobre este tipo de estafas para que estén alerta.

Las estafas con voz clonada son una nueva forma de ciberdelincuencia que aprovecha los avances en inteligencia artificial para engañar a las personas. La mejor defensa es la prevención y la educación.

Guardar