Guardar
Juli Savioli denunció el uso de inteligencia artificial para crear imágenes falsas de su desnudez y difundirlas en redes sociales (Video: Hispa)

Juli Savioli, famosa influencer, bailarina y humorista, se refirió por primera vez a una situación tan violenta como invisible que sufre: el uso de la inteligencia artificial (IA) para generar imágenes falsas de su cuerpo desnudo y su difusión en redes sociales, una práctica que viene despertando debates sobre los usos de este tipo de tecnología.

En su visita al programa Colorama, conducido por Julio Leiva en Hispa, relató el calvario que vive a diario, entre amenazas, acoso y una invasión constante de su intimidad. Su testimonio expone uno de los costados más oscuros del avance la IA: cuando la innovación se convierte en una herramienta de violencia y deshumanización.

Toman todas mis fotos y me sacan el corpiño y la bombacha. Hay un montón de videos de tipos pajeándose y sacando el semen en la pantalla del celular. Me lo mandan todos los días, me ponen que me quieren violar, que me quieren matar”, denunció con crudeza.

La joven relató amenazas, acoso
La joven relató amenazas, acoso y la invasión de su intimidad a través de contenido sexual manipulado con IA (Gastón Taylor)

La escena se dio en un intercambio junto a Dani La Chepi, La Checha y Evitta Luna, tres exitosas influencers conocidas por sus videos de humor, quienes no ocultaron su impacto ante lo que escuchaban. “¿Por Instagram?”, preguntó La Chepi, sorprendida por la magnitud del acoso. Savioli asintió y explicó que existe toda una página con sus fotos desnuda, imágenes creadas mediante inteligencia artificial sin su consentimiento. “Y videos”, agregó, señalando que la manipulación no se limita a fotografías sino también a materiales audiovisuales hiperrealistas.

“Aunque no quieras, lo van a hacer”, advirtió con resignación. En esa frase se condensa la sensación de impotencia que transmitió durante toda la conversación: la de saberse expuesta ante una tecnología que, al mismo tiempo que promete progreso, también se convierte en un vehículo de violencia sistemática. “Estamos inmersos en una bosta”, se lamentó, para contar cómo desde el humor con sus colegas buscan generar otros caminos.

El testimonio de Savioli expone
El testimonio de Savioli expone el costado más oscuro de la tecnología: la violencia digital y la deshumanización

Su relato fue más que una denuncia individual. Expuso un fenómeno que crece en todo el mundo: la creación de contenido sexual falso mediante inteligencia artificial. Según un informe reciente de la Internet Watch Foundation (IWF), solo en los primeros seis meses de 2025 se detectaron 1.286 materiales ilegales generados con IA, frente a apenas dos en el mismo período del año anterior. De ellos, más de mil pertenecen a la categoría A, la clasificación más grave según la legislación británica, que abarca representaciones de abuso sexual extremo contra menores.

Los expertos de la IWF advirtieron que estos videos son “casi indistinguibles de las imágenes reales”, una sofisticación tecnológica que permite que los perpetradores actúen con total impunidad. En muchos casos, los delincuentes usan una técnica conocida como “fine-tuning”, mediante la cual entrenan modelos de IA con un puñado de imágenes o videos reales para producir miles de falsificaciones de contenido sexual. Así logran multiplicar el material ilegal sin necesidad de generar nuevas víctimas físicas, perpetuando el daño sobre quienes ya fueron violentadas.

La Ley Olimpia en Argentina
La Ley Olimpia en Argentina tipifica la violencia digital, pero la falsificación con IA carece de regulación específica (Imagen Ilustrativa Infobae)

Aunque los casos más extremos involucran a menores, el mismo principio se aplica al uso no consentido de imágenes de mujeres adultas, figuras públicas o anónimas, que ven su identidad digital vulnerada por completo. El caso de Juli Savioli ilustra con precisión ese cruce entre acoso, misoginia y tecnología. Su rostro y su cuerpo, extraídos de publicaciones reales en redes sociales, son reconstruidos artificialmente en escenarios pornográficos que nunca existieron. El resultado es devastador: una agresión simbólica que se replica en miles de pantallas y que deja huellas reales en la víctima.

En Argentina, el debate todavía está abierto. Si bien la Ley Olimpia introdujo avances significativos al tipificar la violencia digital y la difusión no consentida de material íntimo, los casos de falsificación mediante IA aún no tienen un marco jurídico específico. Esto deja a las víctimas en una zona gris, obligadas a denunciar en fiscalías cibernéticas que no siempre cuentan con herramientas para rastrear ni eliminar el contenido.