Alerta por nuevo fraude con IA: usuarios crean imágenes falsas de productos “defectuosos” para obtener devoluciones

Se han encontrado fotos de hamburguesas generadas con IA para simular daños y luego usarlas para reclamar compensaciones a cadenas de comida rápida

Guardar
La IA ahora crea imágenes
La IA ahora crea imágenes muy realistas, lo que ha impulsado nuevas formas de fraude. (Imagen Ilustrativa Infobae)

La inteligencia artificial ha desarrollado capacidades para generar imágenes realistas, lo que ha facilitado la aparición de nuevas modalidades de fraude.

Actualmente, la posibilidad de editar imágenes o crearlas desde cero se aprovecha para producir “deepfakes” de personas, así como para producir fraudes vinculados a “productos dañados”.

Según Logicalis Spain, proveedor global de servicios de TI y soluciones digitales, esta tendencia crece especialmente en sectores como la restauración rápida, el retail de moda, la electrónica y el mobiliario.

Hoy, la IA permite generar
Hoy, la IA permite generar deepfakes y falsos “productos dañados” usados para estafas. (Imagen Ilustrativa Infobae)

Hoy, cualquier usuario puede generar en segundos fotografías hiperrealistas de productos “defectuosos” inexistentes, con la finalidad de solicitar reembolsos o compensaciones.

Se han documentado casos de comida rápida en mal estado, productos supuestamente rotos o prendas de ropa presentadas con daños imaginarios.

Logicalis advierte que la combinación de políticas de devolución cada vez más ágiles con la facilidad para manipular imágenes está abriendo nuevas vías de fraude masivo, con un impacto económico y reputacional en aumento para las marcas.

Ante este panorama, los expertos destacan la necesidad de incorporar verificaciones inteligentes de imágenes, análisis automatizados de patrones sospechosos, modelos de riesgo basados en datos y estrategias de trazabilidad digital que permitan diferenciar contenido auténtico de material sintético.

Ya existen casos de comida,
Ya existen casos de comida, ropa y productos mostrados como “dañados” sin serlo. (Imagen Ilustrativa Infobae)

“El reto no consiste en convertir cada reclamación en una investigación forense, sino en integrar tecnología, procesos y cultura digital que permitan actuar con mayor inteligencia y anticipación frente a riesgos emergentes, preservando tanto la seguridad como la confianza del consumidor”, concluyó Ramón Rico Gómez, Cybersecurity Operations Manager.

En qué consiste este nuevo fraude que involucra IA

El nuevo fraude que implica inteligencia artificial se basa en el uso de herramientas capaces de crear imágenes hiperrealistas completamente falsas.

Esta práctica, conocida como fraude por deepfakes visuales, permite a los estafadores simular daños en productos, falsificar evidencia y manipular situaciones para obtener beneficios económicos ilícitos.

Las plataformas de comercio electrónico, restaurantes de comida rápida y tiendas de moda se han convertido en focos frecuentes de este tipo de engaño.

Los expertos piden reforzar las
Los expertos piden reforzar las verificaciones inteligentes de imágenes. (Imagen Ilustrativa Infobae)

Por ejemplo, un usuario puede generar una fotografía en la que aparece un teléfono móvil recién adquirido con una pantalla fracturada y luego reclamar un reembolso a la tienda alegando que el producto llegó dañado.

Del mismo modo, se han reportado imágenes de hamburguesas elaboradas digitalmente para simular mal estado o presencia de objetos extraños, que son utilizadas para exigir compensaciones a cadenas de restaurantes.

En el ámbito de la moda, se crean fotografías de ropa supuestamente rota o con manchas, sin que exista realmente un daño.

La facilidad para crear este tipo de imágenes ha incrementado la dificultad de detectar el fraude, ya que las pruebas visuales parecen auténticas. Por eso, el reto para las empresas es identificar y combatir estos engaños mediante tecnologías de verificación y análisis inteligente, resguardando tanto sus recursos como la confianza de los consumidores.

Este nuevo fraude usa IA
Este nuevo fraude usa IA para generar imágenes hiperrealistas totalmente falsas. (Imagen Ilustrativa Infobae)

Qué otras estafas pueden involucrar IA

La inteligencia artificial ha abierto la puerta a nuevas formas de estafa que van más allá de la falsificación de imágenes.

Entre los fraudes emergentes se encuentran la creación de audios falsos (deepfake de voz) donde los delincuentes imitan la voz de familiares, directivos de empresas o figuras públicas para solicitar transferencias de dinero, acceder a información confidencial o engañar a empleados.

Otro ejemplo es el uso de chatbots automatizados para crear estafas de suplantación de identidad, simulando conversaciones reales para obtener datos personales o bancarios.

Además, la IA puede analizar perfiles digitales y diseñar ataques de phishing altamente personalizados, aumentando la probabilidad de éxito al adaptar los mensajes a los intereses y comportamientos de cada usuario.

Estas prácticas demuestran cómo la IA, en manos equivocadas, puede sofisticar y multiplicar los esquemas de fraude digital.