Suplantan a Jensen Huang, CEO de Nvidia: robaron a miles de personas con un video de YouTube

Un avatar digital del líder tecnológico, creado con inteligencia artificial, protagonizó una estafa masiva, donde invitaba a miles de espectadores a invertir en criptomonedas

Guardar
La suplantación de figuras públicas
La suplantación de figuras públicas es un factor común en estos delitos para aumentar la credibilidad. (Foto: REUTERS/Ann Wang/File Photo)

El reciente uso de tecnología deepfake para suplantar la identidad de Jensen Huang, CEO de Nvidia, en una transmisión fraudulenta de YouTube, ha puesto en evidencia la sofisticación de las estafas digitales y la vulnerabilidad de miles de usuarios ante estos engaños.

Más de 100.000 personas fueron víctimas de este fraude, que coincidió con la celebración real de la GPU Technology Conference (GTC), lo que otorgó una apariencia de legitimidad al evento falso.

Por qué miles de personas cayeron en este fraude que suplantó al CEO de Nvidia

La transmisión, emitida por un canal denominado NVIDIA LIVE, se lanzó de manera simultánea a la conferencia oficial de la compañía referente en GPUs y computación avanzada.

La plataforma ya bajó esa
La plataforma ya bajó esa transmisión y el canal que atentaba contra sus usuarios. (Foto: REUTERS/Dado Ruvic/Illustration/File Photo)

Este detalle estratégico permitió que la emisión fraudulenta se posicionara por encima del canal auténtico de Nvidia en los resultados de búsqueda de YouTube, lo que incrementó su visibilidad y atrajo a una audiencia que llegó a quintuplicar la del evento real.

Durante la retransmisión, un avatar digital de Jensen Huang, generado mediante inteligencia artificial, simuló un discurso en el que se anunciaba un supuesto “evento de adopción masiva de criptomonedas”.

El falso directivo invitaba a los espectadores a enviar bitcoin o ethereum a una dirección específica, prometiendo duplicar los activos recibidos. Un código QR en pantalla dirigía a los usuarios a una página web vinculada a la estafa.

Cómo se usó la inteligencia artificial para darle mayor credibilidad al deepfake

Esta tecnología permite replicar varias
Esta tecnología permite replicar varias características de una persona. (Imagen Ilustrativa Infobae)

La calidad del deepfake resultó determinante para el éxito del engaño. Los expertos en ciberseguridad han destacado que la sincronización de voz, los gestos y el realismo visual del avatar alcanzaron un nivel sin precedentes, lo que dificultó la detección del fraude por parte de los espectadores.

Según los analistas citados por El Confidencial, este caso demuestra la capacidad de las herramientas de IA generativa para imitar figuras públicas con una precisión que plantea serios desafíos para la seguridad digital.

Los especialistas coinciden en que se trató de un esquema clásico de phishing, adaptado a un formato audiovisual y potenciado por la tecnología deepfake.

Qué fue lo que realmente trató el evento de Nvidia

La empresa anunció varias estrategias
La empresa anunció varias estrategias para potenciar el desarrollo de IA. (Foto: REUTERS/Dado Ruvic/Ilustración/Foto de archivo)

En la conferencia oficial, el verdadero Jensen Huang presentó las novedades de la compañía en inteligencia artificial y centros de datos, anunciando inversiones estratégicas en robótica y una colaboración con Nokia.

Además, el ejecutivo subrayó el papel de Nvidia en el desarrollo de sistemas de aprendizaje automático. Sin embargo, se puede decir que la magnitud del fraude digital desvió la atención del contenido genuino del evento, afectando la percepción pública y la cobertura mediática.

Cómo saber si un video es real o está manipulado por inteligencia artificial

El Instituto Nacional de Ciberseguridad de España (INCIBE) ha publicado una serie de medidas para identificar deepfakes, fake news y otras amenazas potenciadas por inteligencia artificial, que solo buscan manipular o robar datos y dinero a los usuarios.

La atención a cada detalle
La atención a cada detalle permite reducir los casos de afectados por estos ataques. (Imagen Ilustrativa Infobae)

Entre los indicios que ayudan a detectar estos montajes audiovisuales, el INCIBE sugiere desconfiar de videos con títulos sensacionalistas o alarmantes, examinar a detalle la imagen en busca de inconsistencias en sombras, color de piel o gestos, y prestar atención a la sincronización entre el audio y la imagen.

Asimismo, advierte que los videos de corta duración suelen facilitar la ocultación de errores propios de los deepfakes. El instituto sugiere utilizar el sentido común y contrastar la información en varias fuentes cuando un contenido alarmante se difunde rápidamente en redes sociales.

En cuanto a las noticias falsas o fake news, el organismo de ciberseguridad español aconseja verificar siempre la fuente original de la información y consultar múltiples medios de confianza antes de dar por cierta cualquier noticia encontrada en internet y evitar así difundir más desinformación.