El mejor consejo del FBI para cuidar a tu familia de robos con suplantación de identidad o deepfakes hechos con IA

El deepfake es una tecnología usada para suplantar a otros creando imágenes que se ven igual a los reales

Guardar
La inteligencia artificial permite que
La inteligencia artificial permite que los ciberdelincuentes creen contenido que parezca real y sea más fácil engañar a los usuarios.(Imagen Ilustrativa Infobae)
Uno de los riesgos digitales más comunes es que alguien de la familia sea hackeado y suplanten su identidad para pedir dinero o datos a los demás. Esto se hace mucho más complicado de detectar cuando se usa inteligencia artificial y a través de deepfakes crean imagenes, videos o audios que se ven y suenan igual a esa persona.

Por ese motivo es fundamental tener soluciones de respaldo y el FBI ha lanzado una advertencia para todos los usuarios en el mundo: las familias pueden protegerse adoptando un sencillo truco, el uso de una frase de seguridad.

Qué son los deepfakes y por qué representan un peligro

Los deepfakes son creaciones digitales altamente realistas que utilizan IA generativa para imitar voces, rostros y gestos de personas reales. Esta tecnología, que inicialmente surgió como una innovación en la industria del entretenimiento y la creación de contenido, ahora es explotada por ciberdelincuentes para fraudes financieros, extorsión y engaños emocionales.

Un ejemplo citado por el FBI son las llamadas de emergencia falsas: los estafadores usan IA para clonar la voz de un ser querido y simular una situación de crisis, como un secuestro o un accidente, exigiendo dinero de manera inmediata. Este tipo de tácticas han capturado la atención pública y sembrado el pánico en familias desprevenidas.

La inteligencia artificial permite que
La inteligencia artificial permite que los ciberdelincuentes creen contenido que parezca real y sea más fácil engañar a los usuarios.(Imagen Ilustrativa Infobae)

Incluso existen casos más sofisticados donde los atacantes emplean deepfakes en videollamadas en tiempo real, suplantando a ejecutivos de empresas o figuras de autoridad para perpetrar estafas corporativas o engañar a usuarios individuales.

Cómo crear una frase de seguridad para proteger a la familia

Para combatir estos riesgos, el FBI ha recomendado una medida de seguridad simple, pero efectiva: las familias deberían acordar y memorizar una frase o palabra secreta que pueda ser usada como clave para autenticar la identidad de sus miembros en situaciones de emergencia.

Esta frase, conocida únicamente por los integrantes de la familia, actúa como una señal verificadora en llamadas o mensajes sospechosos. Según el FBI, su uso permite distinguir una comunicación genuina de un posible ataque de deepfake.

La inteligencia artificial permite que
La inteligencia artificial permite que los ciberdelincuentes creen contenido que parezca real y sea más fácil engañar a los usuarios.(Imagen Ilustrativa Infobae)

“Escuche con atención el tono y la elección de palabras”, indica la agencia, señalando que las sutilezas en el lenguaje pueden revelar si una voz clonada no es completamente natural.

El FBI enfatiza que esta práctica debe ser adoptada por todas las familias, ya que representa una capa adicional de protección contra un tipo de fraude que puede ser emocionalmente devastador y financieramente costoso.

Qué otros riesgos asociados con los deepfakes existen

La advertencia no se limita únicamente a las familias. El FBI señala que los deepfakes están siendo utilizados en una variedad de estafas digitales, muchas de ellas dirigidas a usuarios de teléfonos inteligentes. Entre las técnicas más comunes se encuentran:

  1. Uso de fotos generadas por IA: los estafadores crean imágenes falsas que comparten con las víctimas para convencerlas de que están interactuando con personas reales.
  2. Promoción de actividades fraudulentas mediante imágenes de celebridades: las figuras públicas son utilizadas sin su consentimiento para respaldar esquemas engañosos.
  3. Audios de crisis simulada: breves clips de audio que imitan la voz de un ser querido pidiendo ayuda financiera urgente.
  4. Videollamadas falsas: empleando deepfakes para suplantar a ejecutivos de empresas, agentes de la ley o contactos de confianza.
  5. Videos de prueba: material visual creado para “demostrar” que la persona con la que se comunica el usuario es real, cuando en realidad es una simulación digital.
La inteligencia artificial permite que
La inteligencia artificial permite que los ciberdelincuentes creen contenido que parezca real y sea más fácil engañar a los usuarios.(Imagen Ilustrativa Infobae)

Estos métodos son cada vez más accesibles gracias a las herramientas de IA disponibles públicamente, lo que hace que los fraudes sean más frecuentes y peligrosos.

Otros consejos para protegerse de los deepfake

Además de implementar una frase de seguridad, el FBI ha proporcionado otras recomendaciones esenciales para reducir el riesgo de caer en estafas de deepfake:

  • Limite la información personal en redes sociales: las fotos, videos y audios compartidos públicamente pueden ser utilizados para crear deepfakes. Es preferible mantener las cuentas privadas y restringir el acceso únicamente a personas conocidas.
  • Verifique la identidad de los contactos: si recibe una llamada o mensaje sospechoso, cuelgue o no responda de inmediato. Busque el número o contacto oficial de la persona u organización y comuníquese directamente.
  • No comparta información sensible: evite divulgar datos personales o financieros a través de llamadas o mensajes de texto, especialmente si la solicitud parece urgente o emocionalmente cargada.
  • Reporte incidentes de fraude: si ha sido víctima de un esquema de deepfake o cualquier fraude financiero, presente una denuncia en el Centro de Quejas de Delitos en Internet (IC3) del FBI.
Guardar