Hackers extorsionan a web de artistas: amenazan con usar sus obras para entrenar IA

El ataque a Artists&Clients abre un precedente inédito en el uso del miedo a la inteligencia artificial como herramienta de presión

Guardar
Hackers extorsionan a artistas para
Hackers extorsionan a artistas para no entrenar sus obras con IA. - (Imagen Ilustrativa Infobae)

El cibercrimen dio un giro inesperado con un caso que ha generado alarma en la comunidad artística digital. Un grupo de piratas informáticos conocido como LunaLock hackeó la plataforma Artists&Clients, dedicada a conectar ilustradores con clientes de todo el mundo.

Los hackers no solo robaron información sensible, también amenazaron con emplear las obras sustraídas para entrenar sistemas de inteligencia artificial (IA). La extorsión, inédita hasta el momento, expone un nuevo ángulo en la convergencia entre delitos informáticos y la polémica sobre el uso de la IA en el arte.

El incidente ocurrió el 30 de agosto, cuando la web Artists&Clients dejó de estar operativa tras una intrusión que comprometió correos electrónicos, contraseñas y parte de su código fuente. Los usuarios reportaron de inmediato la caída en foros como Reddit, expresando preocupación por la falta de respuesta oficial por parte de los administradores de la plataforma.

Hackers usan el nombre de
Hackers usan el nombre de la IA para extorsionar a artistas. (Imagen Ilustrativa Infobae)

El comunicado de los atacantes circuló poco después. En él se reiteraba la clásica exigencia de pago a cambio de no filtrar los datos obtenidos, pero añadía un elemento sin precedentes: el anuncio de que las ilustraciones robadas serían entregadas a empresas de inteligencia artificial para su uso en procesos de entrenamiento de modelos generativos.

Una amenaza nunca vista en el ransomware

Expertos en seguridad informática coinciden en que este es el primer caso documentado en el que la IA se menciona de forma explícita como parte del chantaje. Una investigadora de la firma de ciberseguridad Flare explicó que, aunque no se usó inteligencia artificial para ejecutar el ataque, los criminales aprovecharon el contexto actual para aumentar la presión sobre sus víctimas.

“Apelar al temor que despierta la IA en la comunidad artística es una estrategia inteligente desde el punto de vista del chantaje”, señaló.

Hackers se adueñan de página
Hackers se adueñan de página dedicada a artistas. (Imagen Ilustrativa Infobae)

El trasfondo: artistas frente a la IA generativa

El caso impacta de lleno en un debate que ya venía creciendo, el de la relación entre el arte digital y las herramientas de generación automática de imágenes. Desde el auge de sistemas como Stable Diffusion o MidJourney, miles de artistas han denunciado el uso de sus obras sin consentimiento para alimentar algoritmos, lo que ha derivado en campañas de protesta, demandas colectivas y la creación de técnicas para evitar que sus trabajos sean “aspirados” por los modelos de IA.

Que un grupo de ciberdelincuentes se apropie de estas preocupaciones para intensificar su extorsión representa una escalada inédita. No solo se trata de la pérdida de datos personales o de dinero, sino de la amenaza de transformar el trabajo creativo en materia prima para un uso no autorizado.

IA y ciberdelito: una relación en expansión

Aunque en este caso la inteligencia artificial se usó únicamente como argumento, informes recientes han advertido que la IA generativa sí está comenzando a ser utilizada directamente por grupos criminales. Sus aplicaciones van desde la redacción de correos de phishing más convincentes hasta la automatización de programas maliciosos como el ransomware.

Hackers causan problemas a artistas.
Hackers causan problemas a artistas. (Imagen Ilustrativa Infobae)

El ataque a Artists&Clients marca un precedente al combinar dos preocupaciones actuales: el crecimiento de los delitos cibernéticos y la controversia sobre los derechos de los creadores frente a la inteligencia artificial. Para muchos, este episodio simboliza el riesgo de que los artistas digitales queden atrapados en una doble vulnerabilidad: la tecnológica y la creativa.

Por ahora, la plataforma continúa fuera de línea y sus responsables no han ofrecido detalles sobre las medidas adoptadas. Lo que sí es seguro es que este ataque ha encendido nuevas alarmas sobre cómo el miedo a la inteligencia artificial puede ser explotado como un arma más dentro del arsenal del cibercrimen.