Incrementan las estafas con voces clonadas con inteligencia artificial en diciembre: cinco claves para detectarlas

Tenga en cuenta estas recomendaciones de expertos y evite que los criminales le roben su dinero e información

Guardar
Por medio de la inteligencia
Por medio de la inteligencia artificial, suplantan las voces de las personas para cometer estafas - crédito Canva

Un informe del programa de Ingeniería de Sonido de la Universidad de San Buenaventura, Bogotá, explicó cómo operan los deepfakes (videos o audios generados con inteligencia artificial para suplantar personas), las señales que permiten identificarlos y las medidas para evitar robos durante la temporada de fin de año.

Las recomendaciones son realizadas en medio del cierre de año, época que trae un riesgo por lo que los especialistas en sonido y ciberseguridad hablaron de cómo detectar la clonación de voces mediante inteligencia artificial, empleadas para fraudes y extorsiones.

Ahora puede seguirnos en Facebook y en nuestro WhatsApp Channel

Un informe de la Universidad de San Buenaventura (USB), sede Bogotá, aseguró que esta modalidad puede incrementarse hasta un 30% en diciembre y ofrece pautas prácticas de protección: “La voz genera confianza inmediata y por eso resulta tan atractiva para los estafadores”, explicó Marcelo Herrera, docente de Ingeniería de Sonido de la USB.

Los criminales se valen de
Los criminales se valen de la información compartida por los ciudadanos a través de las redes sociales - crédito Colprensa

Las cifras internacionales presentadas por el Fall 2025 Threat Report de Ironscales reveló que el 85% de las empresas enfrentó al menos un incidente con deepfakes en el último año, y que más de la mitad reportó pérdidas superiores a USD 280.000 por ataque.

Gartner informó que el 62% de las compañías recibió intentos similares y que en el 44% de los casos se emplearon audios sintéticos que imitan voces humanas. McAfee indicó que uno de cada 10 individuos fue víctima directa de una estafa con voz clonada y que el 67% de los afectados perdió dinero al actuar bajo presión.

En Colombia, el fenómeno también muestra un crecimiento preocupante. Hasta septiembre, la Policía Nacional reportó 64 denuncias por extorsión en Bolívar, de las cuales 24 corresponden a modalidades digitales que implican voces clonadas e imágenes generadas con inteligencia artificial.

En ese mismo periodo, el Gaula realizó 36 capturas vinculadas a estos hechos. La Estrategia Nacional de Seguridad Digital advirtió que el país fue el segundo más afectado digitalmente en América Latina en 2024, concentrando el 17% de los intentos regionales de ataque. Además, la Ley 2502 de 2025 endureció las penas por falsedad personal cuando se emplea inteligencia artificial para suplantación de identidad.

Las redes sociales han facilitado
Las redes sociales han facilitado el actuar de los criminales - crédito Patrick Sison/AP foto

Modalidad de las estafas con voces clonadas en diciembre

En estos meses, los delincuentes se valen de las llamadas asociadas a viajes, envíos, compras y reuniones familiares que aumentan y facilitan que un audio inesperado pase desapercibido en la rutina.

Sobre la modalidad empleada, el informe aclaró que los estafadores inician con mensajes breves que imitan la voz de un familiar o jefe, utilizando fragmentos extraídos de redes sociales, estados de WhatsApp o grabaciones antiguas. Con solo unos segundos de material, entrenan modelos de inteligencia artificial que replican timbre y ritmo de manera fiel. El fraude tiene el siguiente patrón:

  • Los criminales generan impacto emocional, valiéndose de miedo, confusión o urgencia, con historias de accidentes, bloqueos bancarios u otras situaciones críticas, y después incentivan a la víctima a actuar de inmediato.
  • En ese momento le solicitan dinero, claves o información personal.
  • El delincuente conoce la reacción cerebral al escuchar a un ser querido en peligro; por eso crean historias cortas y presionan la decisión”, señaló Herrera.

Los audios clonados suelen presentar una voz demasiado nítida, silencios sin ambiente, frases poco fluidas o variaciones abruptas en la entonación e impiden cualquier verificación, pues interrumpen la llamada, envían otro audio o insisten en no poder comunicarse.

Adicionalmente, en esta temporada combinan la clonación de voz con otros métodos: perfiles falsos, números desconocidos o enlaces que suplantan entidades legítimas. En el contexto de las compras, el estrés y la preocupación de las reuniones familiares, un audio aparentemente creíble puede bastar para lograr que alguien responda sin detenerse a dudar.

Expertos advierten el peligro de
Expertos advierten el peligro de confiar en las llamadas sospechosas - crédito Andina

Cinco medidas para actuar rápidamente y evitar estos fraudes

  1. Verifique por otro canal: corte la comunicación y contacte directamente a la persona por un número diferente.
  2. Pregunte algo que solo el verdadero contacto pueda responder: aunque la IA imite voces, no reproduce recuerdos personales.
  3. Escuche el audio con audífonos: “Muchas manipulaciones se detectan al final de cada frase”, indicó Herrera.
  4. Espere veinte segundos antes de actuar: esa pausa corta el efecto de manipulación emocional.
  5. Nunca envíe dinero sin verificar por varios medios: si existe presión, lo más probable es que se trate de un fraude.

Finalmente, Herrera recomendó establecer una palabra clave familiar para emergencias y definir protocolos internos en empresas para validar pagos y modificaciones de cuentas.

Además, aclaró que es fundamental analizar el contexto de la llamada: si el mensaje contradice la rutina del contacto, probablemente se trata de un intento de engaño, por lo que recordó la importancia de guardar el audio y reportarlo, pues esto previene nuevas víctimas: “La seguridad no depende de la tecnología, sino de la calma al verificar”, concluyó el experto.