Guardar
Varios casos se han reportado
Varios casos se han reportado donde integrantes de una organización son manipulados a través de ingeniería social. (Imagen Ilustrativa Infobae)

La creciente sofisticación de los deepfakes ha puesto en jaque la seguridad empresarial, como lo demuestra el caso de Arup, una firma británica que en 2024 sufrió la pérdida de 25 millones de dólares tras una estafa basada en inteligencia artificial.

Un empleado, convencido por una videollamada que simulaba a miembros de la alta dirección, autorizó una transferencia millonaria, sin advertir que interactuaba con videos manipulados digitalmente.

Este incidente, según Rob Greig, quien entonces ocupaba el cargo de director de información en Arup, no se trató de un ciberataque convencional, sino de un ejemplo de “ingeniería social potenciada por la tecnología”.

Son ciberataques avanzados que se
Son ciberataques avanzados que se aprovechan de la confianza en ciertos canales digitales. (Imagen Ilustrativa Infobae)

Greig explicó ante el Foro Económico Mundial que la manipulación no solo explotó vulnerabilidades técnicas, sino que aprovechó la confianza depositada en señales visuales y auditivas, consideradas fiables para validar la autenticidad de una comunicación.

En qué consisten los deepfakes y por qué pueden ser peligrosos

Los deepfakes emplean inteligencia artificial para generar imágenes y sonidos que imitan de manera realista a una persona, sin que esta haya participado en la acción representada.

Estas herramientas procesan grandes volúmenes de datos visuales y auditivos, replicando gestos, voces y rasgos faciales con una precisión que dificulta la detección del engaño.

Esta tecnología puede replicar varios
Esta tecnología puede replicar varios detalles de una persona. (Imagen Ilustrativa Infobae)

Aunque la tecnología tiene aplicaciones legítimas en sectores como el cine, la publicidad o la educación, su uso fraudulento se ha expandido, afectando tanto a individuos como a organizaciones.

Cómo engañaron al empleado para que enviara esa cantidad de dinero

En el caso de Arup, los delincuentes crearon videos falsos de altos ejecutivos para persuadir a un empleado de realizar una transferencia bancaria. La videollamada, que aparentaba total legitimidad, resultó en la pérdida de una suma millonaria.

Este tipo de fraude resulta muy peligroso porque explota la confianza en la veracidad de las imágenes y sonidos, elementos que históricamente han servido para verificar la identidad de los interlocutores.

Por qué preocupa el uso de inteligencia artificial para manipular fotos y videos

Muchas de las órdenes se
Muchas de las órdenes se dicen vía digital, así que la probabilidad de fraude aumenta. (imagen ilustrativa Infobae)

La preocupación por el impacto de los deepfakes en el sector corporativo va en aumento. Una encuesta de Deloitte realizada en 2024 reveló que el 25% de los ejecutivos reportó incidentes relacionados con deepfakes dirigidos a datos financieros y contables.

Sumado al riesgo económico, la reputación de las empresas queda expuesta, porque la manipulación de imágenes y videos puede pasar inadvertida sin herramientas de verificación avanzadas.

Asimismo, las proyecciones del Centro de Servicios Financieros de Deloitte advierten que la inteligencia artificial generativa, responsable de la creación de deepfakes, podría causar pérdidas por fraude de hasta 40.000 millones de dólares en Estados Unidos para 2027.

Este escenario subraya la capacidad destructiva de la tecnología cuando es utilizada con fines ilícitos y la necesidad de reforzar tanto los sistemas de defensa informática como la formación de sus empleados frente a todos los riesgos.

Cómo evitar que más casos de este tipo de repitan en las empresas

Todos los colaboradores deben estar
Todos los colaboradores deben estar atentos a las señales que indican amenazas. (Imagen Ilustrativa Infobae)

Para mitigar el peligro de los fraudes basados en deepfakes, existen estrategias de verificación que pueden implementarse en el ámbito corporativo.

Alberto Juárez, vicepresidente global de verificación de identidad en Sovos, dice que “la prueba de vida es un escudo digital clave, cuya función es asegurarse de que quien está al otro lado de la pantalla es una persona real y no una imagen manipulada”.

Es clave que empleados y directivos nunca autoricen transferencias de dinero sin confirmar la identidad del solicitante, incluso si se trata de un colega conocido. Además, los expertos insisten en la importancia de validar las videollamadas y mensajes a través de canales alternativos, como una llamada telefónica independiente.

Subrayan la necesidad de ser prudente al compartir información personal en redes sociales y otras plataformas , porque estos datos pueden ser utilizados para crear videos alterados convincentes.