
Miles de personas compartieron en redes sociales sus figuras de acción digitales creadas a partir de fotos personales mediante Gemini 2.5 Flash —también conocido como Nano Banana—, la nueva inteligencia artificial de Google enfocada en la generación de imágenes.
Esta tendencia ha hecho viral el fenómeno de convertir la identidad de los usuarios en objetos de colección virtual, pero la experiencia reciente con tecnologías similares advierte sobre consecuencias que pueden afectar la privacidad, la seguridad de datos y la suplantación de identidad.
Filtraciones y malas prácticas en el uso de datos
Existen otros casos emblemáticos donde el uso aparentemente inofensivo de tecnologías de procesamiento de imágenes y reconocimiento facial terminó por comprometer a millones de personas. Uno de ellos fue el de Clearview AI, una compañía que funcionaba desde 2020 como un buscador de rostros, similar a los tradicionales motores de búsqueda, pero especializado en identificar personas a partir de fotografías. Clearview recopilaba datos de plataformas abiertas como redes sociales, páginas de revistas y blogs, y consolidaba una base de información biométrica masiva.

En 2022, la compañía enfrentó litigios con la Unión Americana de Libertades Civiles (ACLU) en Estados Unidos, lo que derivó en restricciones para comercializar el software de reconocimiento facial a entidades que no sean gubernamentales. Aunque mantuvo sus operaciones, la firma no logró esquivar disputas legales y sanciones económicas en diferentes países debido a la utilización y almacenamiento masivo de datos sensibles sin consentimiento claro de los afectados.
Otra muestra significativa fue el incidente registrado en Outabox, una empresa australiana dedicada a sistemas de reconocimiento facial usados en espacios de ocio nocturno. En mayo de 2024, se reportó una fuga de información confidencial, entre la que figuraban datos biométricos de reconocimiento facial, identificaciones escaneadas, firmas, membresías, domicilios, fechas de nacimiento, números telefónicos, registros de visitas y uso de máquinas tragamonedas provenientes de 19 clubes ubicados en Nueva Gales del Sur y el Territorio de la Capital Australiana.
Según individuos que declararon haber trabajado antes como desarrolladores en Outabox, la validación de la información filtrada se hizo a través de un sitio web que demostró la magnitud del acceso no autorizado a los datos. El operador ClubsNSW contrató los servicios de Outabox, y la brecha de seguridad impactó en una cantidad considerable de clientes sin su conocimiento directo ni consentimiento explícito sobre el destino de su información personal.
Entregar privacidad a cambio de entretenimiento

La inquietud no quedó solo en el pasado. En 2025, muchos usuarios recurrieron a plataformas como ChatGPT y otras IA para crear imágenes propias en el estilo de animación de Studio Ghibli. Subieron retratos personales que pasaron directamente a nutrir nuevos modelos de generación.
Esta práctica, aunque trivial en apariencia, expone el problema central en los actuales servicios basados en inteligencia artificial: estas tecnologías requieren volúmenes masivos de datos personales, sensibles y confidenciales, obtenidos mediante métodos donde casi nunca se explica con claridad el alcance real de la recopilación.
La exposición de esta información no solo facilita posibles fugas y robos perpetrados por ciberdelincuentes, sino que además aumenta la probabilidad de suplantación de identidad y fraude digital, porque el material fue proporcionado voluntariamente por los propios usuarios. La ausencia de controles robustos en el almacenamiento y procesamiento seguro de estos datos, como quedó en evidencia en el episodio de Outabox, extiende las oportunidades para ataques y vulneraciones.

Además, la recolección masiva de datos suele realizarse sin consentimiento informado de los usuarios. En muchos casos, quienes eligen estos servicios ignoran el destino final de sus fotos y datos personales y desconocen si quedarán reutilizados, almacenados indefinidamente o transferidos a terceros. Desde el punto de vista legal, ese escenario supone un grave defecto en el consentimiento y hace opacos los fines para los que esos datos resultan empleados.
Finalmente, la falta de transparencia y explicabilidad en los algoritmos y políticas de privacidad genera fricciones con las normativas locales e internacionales. Algunas empresas informan mediante cláusulas explícitas que las imágenes se emplearán para mejorar sus modelos de IA, pero la complejidad y la longitud de los documentos de privacidad coloca a los usuarios en una situación en la que difícilmente pueden comprender el alcance real de la cesión de derechos sobre sus propios datos.
Últimas Noticias
Esta canción de Las Guerreras K-Pop se mantiene en el top 10 mundial de las más ‘shazameadas’
La canción ha sido tan reproducida que muchos de los que no están familiarizados con la película se animan a averiguar su origen

Gemini ahora permite conectar Google Drive y Gmail a Deep Research
Este avance se suma a la integración previa vista en NotebookLM, donde los archivos de la nube ya podían usarse como fuente para apuntes y cuadernos impulsados por IA
Glosario de tecnología: qué significa Boot sector
La tecnología es algo que puede parecer complicada pero en realidad es más simple si se le dedican unos minutos para aprender sobre ella

WhatsApp en Apple Watch: mensajes de voz, reacciones a mensajes y más funciones
Antes de este lanzamiento, en lo que respecta a WhatsApp, el reloj inteligente solo permitía gestionar notificaciones

Qué significa desviar la mirada al hablar, según la IA
Según el motor conversacional de OpenAI, en muchos casos este gesto “puede ser un signo de timidez, inseguridad o nerviosismo”



