Así clonan tu voz: la táctica de los ciberdelincuentes para suplantar identidades

La facilidad para crear réplicas digitales de voces pone en alerta a individuos y organizaciones, que enfrentan fraudes, estafas y riesgos de manipulación en ámbitos financieros, políticos y personales

Guardar
La clonación de voz por
La clonación de voz por inteligencia artificial: el nuevo reto de ciberseguridad para empresas y usuarios - (Imagen Ilustrativa Infobae)

La clonación de voz, impulsada por inteligencia artificial, ha dejado de ser una amenaza futurista para convertirse en una realidad cotidiana que pone en riesgo tanto a individuos como a organizaciones.

Esta técnica consiste en crear una réplica digital casi perfecta de la voz de una persona a partir de muestras de audio, lo que permite a los ciberdelincuentes engañar y manipular con un nivel de realismo sin precedentes.

De acuerdo con la plataforma de ciberseguridad SOSAFE, con sistemas de aprendizaje profundo y herramientas como Tacotron, WaveNet o Lyrebird, la precisión de la clonación de voz ha alcanzado un punto en que imita incluso las sutilezas y matices del habla.

La prevención ante voces artificiales
La prevención ante voces artificiales pasa por la educación, la inversión en detección biométrica y el acuerdo de contraseñas seguras entre usuarios y organizaciones para evitar engaños cada vez más sofisticados - (Imagen ilustrativa Infobae)

Cómo los ciberdelincuentes logran clonar una voz

Basta una grabación breve para que un atacante pueda simular la voz de un familiar, un colega o un directivo de empresa y así ejecutar fraudes o desinformar. El impacto es evidente: estudios recientes indican que una de cada cuatro personas ya ha sido víctima directa o indirecta de ataques de clonación de voz, y un alto porcentaje de ellas ha perdido dinero como consecuencia.

El abanico de riesgos es amplio. Los hackers combinan el uso de voces clonadas con otras técnicas en ataques de ingeniería social multicanal.

Ejemplos recientes van desde estafas de secuestro, donde se utiliza la voz clonada de un menor para pedir rescate, hasta suplantaciones en empresas mediante videollamadas manipuladas donde los empleados pueden ser inducidos a transferir grandes sumas de dinero. Un caso en Hong Kong expuso cómo un empleado fue engañado para enviar 25 millones de dólares tras una videoconferencia en la que los delincuentes suplantaron a directivos con voces clonadas y deepfakes visuales.

La amenaza también abarca el ámbito político y social. Mensajes falsos atribuidos a líderes influyentes han sido difundidos para influir en procesos electorales, como ocurrió en las primarias de New Hampshire, donde una grabación generada por IA simulaba ser del presidente de Estados Unidos y llamaba a no votar. En un año electoral marcado por campañas en decenas de países, esta capacidad de manipulación plantea un desafío adicional a la integridad democrática global.

Plataformas ilícitas comercializan sistemas de
Plataformas ilícitas comercializan sistemas de clonación al alcance de cualquiera, acelerando ataques multicanal y exigiendo vigilancia permanente y métodos de autenticación avanzados para contener el daño - (Imagen Ilustrativa Infobae)

El auge de la “clonación de voz como servicio” ha ampliado el acceso a esta tecnología. Plataformas en la dark web ofrecen sistemas para clonar voces a cambio de una tarifa o suscripción, eliminando las barreras técnicas y permitiendo que cualquier actor malicioso adopte estas tácticas. Este fenómeno acelera la profesionalización del cibercrimen y obliga a empresas y usuarios a replantear las estrategias de protección.

Cómo combatir las estafas realizadas con IA

Detectar si una voz es clonada representa un reto, pero la combinación de análisis espectral, aprendizaje automático, detección de artefactos digitales y reconocimiento biométrico ofrece algunos mecanismos de defensa. No obstante, la reacción emocional ante una voz familiar sigue siendo la mayor vulnerabilidad explotada por los atacantes, ya que las víctimas suelen actuar sin tomarse el tiempo de corroborar la autenticidad.

La prevención requiere medidas desde distintos frentes. Implementar autenticación multifactor, reforzar la concienciación mediante formación periódica, establecer protocolos internos y limitar la exposición pública de datos personales son pasos fundamentales. Ante solicitudes telefónicas inusuales, se recomienda verificar por canales alternativos y emplear palabras clave acordadas previamente entre familiares o equipos internos.

Las organizaciones, además, necesitan invertir en tecnologías de identificación de audio sintético y en el diseño de protocolos sólidos para el manejo de datos sensibles. El entorno actual demanda una vigilancia constante y un enfoque integral de gestión de riesgo humano que involucre a todos los integrantes.

En una era donde la inteligencia artificial potencia tanto la productividad como la amenaza, la educación, la tecnología y la prevención juegan un papel clave para evitar que la próxima voz al otro lado de la línea sea la de un impostor.