
El temor a la permanencia de imágenes íntimas generadas por inteligencia artificial (IA) ha marcado la vida de Jane Doe, una adolescente de 17 años que, junto a sus padres, ha presentado una demanda contra los responsables de la aplicación ClothOff.
La joven sostiene que la plataforma, capaz de crear desnudos hiperrealistas a partir de fotografías con ropa, no solo la expuso sin su consentimiento, sino que podría estar utilizando sus imágenes para entrenar modelos de IA, perpetuando el riesgo de nuevas vulneraciones.
Por qué la joven decidió demandar a la aplicación ClothOff
La demanda, presentada en el Tribunal de Distrito de los Estados Unidos del Distrito de Nueva Jersey, detalla que en 2023, compañeros de instituto de Jane Doe obtuvieron imágenes suyas y las cargaron en ClothOff. Con apenas tres clics, la aplicación generó desnudos digitales imposibles de distinguir de una fotografía real.

El texto judicial subraya que: “Jane Doe estaba mortificada y emocionalmente desconsolada, y ha experimentado consecuencias desde entonces”, según consta en la documentación presentada ante el tribunal.
La familia de la adolescente afectada dirige su acción legal contra AI/Robotics Venture Strategy 3, la empresa responsable de ClothOff, argumentando que su modelo de negocio facilita la creación, distribución y monetización de desnudos ilegales.
Qué alegan los demandantes sobre el funcionamiento de esta plataforma
La demanda sostiene que la compañía no solo permite la generación de este tipo de imágenes a través de planes de pago, provee la tecnología subyacente a otros desarrolladores y plataformas.
El escrito judicial afirma que “todo el modelo de negocio de los demandados se basa en los aspectos penales y delictivos de la explotación y victimización de niños y adultos”.

Esto hace referencia a la producción de imágenes hiperrealistas de desnudos sin consentimiento, tanto de menores, lo que constituye material de abuso sexual infantil, como de adultos, en forma de imágenes íntimas no consentidas. El texto califica a la aplicación como “un caldo de cultivo por pornografía infantil, explotación y abuso sexual”.
Cuál es el alcance de las imágenes generadas con inteligencia artificial
La incertidumbre sobre el alcance de la distribución de estas imágenes agrava el daño sufrido por la víctima. La demanda advierte que, “porque no hay forma de determinar hasta qué punto llegaron a distribuirse las imágenes, Jane Doe ahora vive con el temor de que su foto permanezca disponible en ClothOff y en otros lugares”.
La parte demandante alega que a la joven “le preocupa que esas imágenes puedan distribuirse a otras personas y que su imagen se haya utilizado y se siga utilizando para ayudar a entrenar el sistema de inteligencia artificial de ClothOff para mejorar generar CSAM de otras niñas”.

Además, los datos aportados en la demanda reflejan la magnitud del fenómeno: ClothOff produce cada día una media de 200.000 imágenes y recibe unas 27 millones de vistas.
La propia promoción de la app invita a los usuarios a “desnudar a cualquiera” mediante un servicio gratuito, lo que amplifica el potencial de daño y la facilidad de acceso a este tipo de productos.
Qué otros casos se han presentado alrededor del uso de IA para contenido adulto
El caso de Jane Doe no es aislado. En Córdoba, Argentina, un joven de 19 años fue procesado por usar inteligencia artificial para crear y difundir fotos pornográficas falsas de sus compañeras de colegio.

Según el requerimiento de elevación a juicio, el acusado descargó fotografías de menores de edad desde redes sociales y, mediante la técnica de face-swapping, que permite insertar rostros reales sobre cuerpos ajenos, generó deepfakes sexuales que luego publicó en el sitio Poringa, acompañadas de los nombres reales de las víctimas y descripciones denigrantes.
A pesar de que la Justicia ordenó la desindexación de estas imágenes en los sitios web implicados, el nombre de algunas de las jóvenes sigue vinculado a páginas pornográficas en navegadores webs, lo que prolonga el daño a su reputación y dificulta la reparación del perjuicio.
Asimismo, las consecuencias psicológicas para las víctimas han sido severas. La exposición a este tipo de contenidos provocó ansiedad, temor, vergüenza y síntomas compatibles con trastorno de estrés postraumático, lo que requirió tratamientos psicológicos prolongados.
Últimas Noticias
HBO Max anuncia 12 nuevos títulos japoneses: romance, acción y grandes historias
Entre las novedades del mes figuran historias inspiradas en populares webtoons, éxitos de taquilla y propuestas premiadas

Meta firma acuerdo de USD 27 mil millones para construir su mayor centro de datos en el mundo
Este proyecto, denominado Hyperion, se construirá en Richland Parish, Luisiana, Estados Unidos

La IA de Perplexity llega a los televisores Samsung: qué modelos tendrán esta función
La nueva aplicación permitirá acceder a información, recomendaciones y gestión de tareas desde la pantalla principal sin depender de otros dispositivos

Kohler presenta Dekoda, una cámara inteligente para el inodoro que detecta problemas de salud intestinal
Una de las ventajas del dispositivo es su soporte para varios usuarios, lo que facilita su uso en hogares familiares

Por qué estos celulares dejarán de tener WhatsApp desde el 31 de octubre de 2025
Dispositivos Android y iPhone con sistemas operativos desactualizados quedarán sin acceso a WhatsApp, obligando a los usuarios de modelos antiguos a actualizar su equipo o migrar la aplicación a un teléfono compatible
