
Las capacidades generativas de la inteligencia artificial para producir rostros humanos que tengan apariencia real es ampliamente conocida por los usuarios curiosos y editores de fotografías experimentados. Sin embargo esto puede generar casos curiosos en los que se considere que la cara de una persona que fue completamente creada con esta tecnología se vea “más realista” que la perteneciente a un humano real.
Este fenómeno, llamado “hiperrealismo” en el que se considera que un rostro creado por computadora se ve incluso “más real” que uno existente, fue analizado por investigadores de la Universidad Nacional Australiana, quienes detectaron que en particular aquellas imágenes que representan a personas de piel blanca eran consideradas de mayor realismo a comparación de aquellas de personas con piel morena.
El documento, que fue publicado por la revista “Psycological Science” con el título “Hiperrealismo de la IA: por qué los rostros de la inteligencia artificial se perciben como más reales que los humanos”, indica que las imágenes creadas con programas de este tipo hace tres años eran percibidas como más reales que fotografías de personas existentes.
El experimento realizado consistió en que una serie de encuestados eligiera las fotos que consideran como reales o falsas de una colección conformada por 100 fotografías creadas con inteligencia artificial y otras 100 que representan a personas reales. Los investigadores también solicitaron que los participantes indiquen el nivel de confianza en su respuesta.

Como resultado de la encuesta, en la que participaron 124 personas, el 66% de las imágenes creadas por inteligencia artificial fueron calificadas como humanas mientras que las fotografías reales solo fueron reconocidas como tales en el 51% de los casos. En el caso de personas de color, tanto las imágenes generadas con IA y las fotos reales fueron identificadas en el 51% de las veces.
A diferencia de otros estudios en los que se utilizan como objetos de análisis a los programas de inteligencia artificial más recientes como ChatGPT, DALL-E2, Stable Diffusion, entre otros, el análisis fue realizado teniendo como estándar el contenido generado por un modelo llamado “StyleGAN2″ lanzado oficialmente en el año 2020 por la empresa Nvidia.
Otro de los resultados destacados del estudio indican, por ejemplo, que usualmente las personas que se equivocan de forma más constante durante la evaluación de las fotografías creadas con inteligencia artificial son comúnmente las que se muestran más seguras de su capacidad para identificar de forma eficaz qué imágenes son reales.
En particular, algunos de los motivos que llevaba a las personas que participaron del estudio a identificar un rostro como “más realista” pese a que en realidad se trataba de una creación de una inteligencia artificial eran que la proporcionalidad, familiaridad y “lo común” de estas imágenes favorecía a la asignación de esta categoría.

Por otro lado, aquellas imágenes que tenían rostros con diferentes proporciones eran catalogadas como “menos realistas” pese a que en realidad correspondían a una persona de verdad. En estos casos, los investigadores sí crearon un modelo de inteligencia artificial que sí es capaz de identificar con una presición del 94% qué fotografías eran creadas con IA generativa.
Según la publicación académica, el hecho de que los modelos de inteligencia artificial puedan crear imágenes que algunos usuarios podrían no reconocer como falsas solo aporta al sesgo racial en la sociedad, lo que puede llevar a caer en engaños como el fraude o el robo de la identidad.
Por otro lado, se indica que el hecho de que los programas de inteligencia artificial generen resultados que las personas pueden calificar como “más realistas” de forma más constante es producto de que estos sistemas son principalmente entrenados con otras imágenes en las que se represeta a personas con piel blanca.
Últimas Noticias
Cómo crear robots dentro de las empresas con inteligencia artificial
De Colombia a Brasil, firmas crean y reentrenan modelos propios para combatir fraudes, automatizar servicios y revolucionar agricultura, retail y educación

Así puedes optimizar la red WiFi en minutos y sin ser experto
Reubicar el router, elegir el canal adecuado y actualizar el firmware son acciones sencillas que transforman la conectividad, mejoran el rendimiento

Nueva herramienta de WhatsApp revoluciona la privacidad de los estados y los grupos
La versión beta permite compartir actualizaciones de estado visibles solo por los miembros de cada grupo, facilitando avisos internos, colaboración y protección de datos en chats colectivos sin perderse entre mensajes

El accesorio lujoso con IA que promete reducir el tiempo en dispositivos como el celular
Se trata de un producto creado por Spktrl que, más allá de su valor estético, funciona como un filtro inteligente de notificaciones

IA y nube, las nuevas tendencias en ciberseguridad que ponen en riesgo la privacidad
La personalización de modelos de IA y la mala gestión en la nube incrementan los riesgos digitales
