
Las estafas telefónicas han evolucionado con la llegada de la inteligencia artificial. Ya no se trata solo de llamadas fraudulentas de falsos agentes bancarios o familiares en apuros. Ahora, la clonación de voz permite a los estafadores imitar con precisión la voz de cualquier persona, engañando a sus víctimas con mensajes aparentemente genuinos.
Según el Instituto Nacional de Ciberseguridad de España (Incibe), el voice hacking es una técnica que emplea IA para replicar voces reales y hacer que los mensajes fraudulentos parezcan verídicos.
Esta tecnología se utiliza en diferentes tipos de fraudes, desde el vishing (estafas telefónicas que buscan robar datos sensibles) hasta la suplantación de identidad por voz, en la que los delincuentes imitan a familiares, amigos o superiores para manipular a sus víctimas.
Cómo reconocer una llamada clonada con inteligencia artificial

Uno de los principales problemas del hacking de voz es que las llamadas falsas pueden sonar muy creíbles. Sin embargo, hay algunas señales que pueden indicar que una voz ha sido recientemente generada o manipulada por inteligencia artificial:
- Tonos y pausas inusuales: las voces clonadas pueden tener una entonación mecánica, con pausas extrañas o falta de fluidez.
- Falta de contexto: si la persona parece evitar ciertos detalles personales o responde de manera genérica, podría ser una señal.
- Repetición de frases: algunas herramientas de clonación pueden generar respuestas limitadas, repitiendo palabras o estructuras similares en poco tiempo.
- Solicitudes urgentes de dinero o datos personales: los estafadores buscan generar pánico para evitar que la víctima reflexione.
- Verificación fallida: si se duda de la identidad de la persona, hay que hacer preguntas con respuestas que solo ella debería conocer. Si responde con evasivas, podría tratarse de un fraude.
Cuáles son los fraudes más comunes hechos con clonación de voz

Las estafas telefónicas con inteligencia artificial pueden tomar diversas formas, que pueden ser muy efectivas, pero algunas de las más habituales incluyen:
- Llamadas bancarias falsas: un supuesto representante del banco solicita información personal o confirma transacciones sospechosas.
- Familiares en peligro: la voz clonada de un ser querido informa sobre un secuestro o una emergencia médica y exige dinero.
- Directivos falsos: un fraude corporativo en el que la voz da una orden para transferencias urgentes.
- Atención al cliente fraudulento: empresas falsas llaman a las víctimas para pedirles datos de acceso a cuentas o servicios digitales.
Asimismo, casos como el de Jennifer DeStefano, quien recibió una llamada con la voz clonada de su hija afirmando que había sido secuestrada, o el fraude a una empresa británica que perdió 220.000 euros tras recibir instrucciones falsas de un supuesto CEO, demuestran que esta tecnología ya se está utilizando con éxito en delitos exigentes.
Qué riesgos implica ser víctima de una llamada clonada por inteligencia artificial

El uso de la inteligencia artificial para clonar voces no solo supone un engaño puntual, sino que puede derivar en graves consecuencias para la víctima y su entorno.
- Robo de identidad: los estafadores pueden acceder a cuentas bancarias y servicios online suplantando a la víctima.
- Pérdida de dinero: desde transferencias fraudulentas hasta compras no autorizadas, el impacto financiero puede ser devastador.
- Daño reputacional: la clonación de voz se ha utilizado para difundir mensajes falsos que perjudican la imagen de una persona.
- Manipulación emocional: la suplantación de familiares o amigos puede generar pánico y llevar a tomar decisiones precipitadas.
En el caso de Ruth Card, una mujer canadiense de 73 años, la voz clonada de su nieto la convenció de retirar dinero del banco para pagar una supuesta fianza. Por suerte, descubrió el engaño antes de entregar el dinero, pero muchas otras víctimas no tienen la misma suerte.
Cómo protegerse de este tipo de estafas telefónicas que usan IA

Ante la creciente amenaza del hacking de voz, las autoridades de seguridad cibernética aseguran que es clave adoptar medidas de seguridad para evitar ser víctima de este tipo de fraudes:
- Desconfiar de llamadas inesperadas de números desconocidos.
- Verificar la identidad de la persona antes de compartir información sensible.
- No proporcionar datos personales ni bancarios por teléfono.
- Implementar preguntas de seguridad que solo la persona real pueda responder.
- Informar a familiares y empleados sobre este tipo de estafas para que estén alerta.
Las estafas con voz clonada son una nueva forma de ciberdelincuencia que aprovecha los avances en inteligencia artificial para engañar a las personas. La mejor defensa es la prevención y la educación.
ultimas
La nueva IA de Google resolvió en dos días una investigación que tomó 10 años
Investigadores del Imperial College de Londres probaron el sistema y generó una hipótesis precisa sobre resistencia bacteriana, un problema que científicos investigaron durante una década

Lo que nunca debes hacer al limpiar la pantalla del televisor o dejará de funcionar en poco tiempo
Al comprar este electrodoméstico para el hogar se deben seguir las indicaciones del fabricante y así evitar interferencias al ver películas o series

Cuida tu Alexa de Amazon: lugares donde nunca se debe ubicar el asistente si no quieres ser espiado
Investigadores de la Universidad de Michigan advierten sobre la manipulación de asistentes de voz con micrófonos y láseres

Cuál es el principal enemigo de la productividad en una empresa, según Steve Jobs
Durante su liderazgo, Apple lanzó varios dispositivos que marcaron tendencia en el mundo de la tecnología, como el iPhone, el iPad, entre otros inventos
Videojuegos y juegos de azar: la delgada línea que genera adicción y pone en riesgo a los niños
Países como Bélgica, China, Australia y Japón ya cuentan con regulaciones para prohibir contenidos peligrosos que motivan a gastar dinero
