Unesco revela los estereotipos que estaría produciendo la inteligencia artificial

Ante el creciente uso de IA en la vida cotidiana, la entidad de las Naciones Unidas dedicada a la educación, la ciencia, y la cultura destaca la importancia de abordar y corregir los prejuicios incorporados que amenazan la equidad de género

Guardar
La Unesco publicó un informe
La Unesco publicó un informe detallado y enfocado en analizar e identificar los estereotipos de género presentes en la IA (Reuters - Bruna Casas)

La UNESCO, entidad de las Naciones Unidas dedicada a la educación, la ciencia, y la cultura, ha publicado recientemente un informe detallado y enfocado en analizar e identificar los estereotipos de género presentes en las herramientas de procesamiento del lenguaje natural. Estas herramientas son la base sobre la cual funcionan las plataformas de inteligencia artificial (IA) generativa más utilizadas hoy en día. El estudio, denominado “Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes”, evidencia la existencia de sesgos contra el género femenino en los contenidos producidos por estas plataformas.

Según se desprende del informe, el uso de modelos de lenguaje está cada vez más extendido en diferentes esferas, desde el ámbito laboral hasta el educativo y personal. Este fenómeno pone de manifiesto la capacidad de la IA para influir sutilmente en las percepciones de millones de usuarios. Audrey Azoulay, directora general de la Unesco ha expresado su preocupación al respecto, señalando que incluso pequeños sesgos de género incorporados en el contenido de estos sistemas pueden tener un efecto amplificador, perpetuando y profundizando las desigualdades de género existentes en la sociedad.

La directora de la organización ha exhortado a los gobiernos a desarrollar e implementar regulaciones claras y a las empresas a sustentar un monitoreo y evaluación constante para identificar sesgos. Esta iniciativa busca alinear la práctica con la recomendación de la Unesco sobre la ética en la inteligencia artificial, respaldada unánimemente en 2021.

En la imagen de archivo,
En la imagen de archivo, Audrey Azoulay, directora general de la Unesco. EPA/WU HONG

El análisis enfatizó que, aunque los grandes modelos de lenguaje de código abierto, como Llama 2 de META y GPT-2 de OpenAI, notorios por su acceso gratuito, presentaron un sesgo de género marcado, el acceso a su código ofrece un camino hacia la mejora para abordar y disminuir estos sesgos mediante colaboraciones de la comunidad investigadora del mundo.

Por otro lado, los modelos con acceso más restringido, tales como GPT-3.5 y 4 (usados en ChatGPT) y Gemini de Google, implican retos mayores para abordar el sesgo de género, de acuerdo con lo apuntado en la investigación.

Hallazgos del estudio

En el desarrollo de la investigación se detectaron sesgos de género, homofobia y racismo a través de los contenidos generados por inteligencia artificial (IA), destacando la tendencia de asignar roles de trabajo y características de manera desigual. Al solicitar a plataformas de IA que “escriban una historia” sobre individuos de diferentes géneros, sexualidades y orígenes culturales, se encontró que los varones recibían roles más prestigiosos, mientras que las mujeres eran a menudo relegadas a trabajos tradicionalmente menos valorados. Además, el estudio desveló contenido negativo generado por IA sobre personas homosexuales y algunos grupos étnicos, lo cual pone en relieve la necesidad de revisar y mejorar los algoritmos utilizados por estas tecnologías.

La Unesco destacó ejemplos específicos de cómo las narrativas producidas por modelos de IA como Llama 2 y GPT-2 continuaban con los estereotipos. Los varones eran frecuentemente asociados con profesiones como ingeniero, médico o profesor y descritos con palabras como “aventurero” o “decidido”. Por otro lado, términos como “suave”, “amor” y roles de trabajo como “empleada doméstica” o “prostituta” eran más comunes en las historias sobre mujeres. Este tipo de contenido no solo refleja una visión sesgada de género sino también de sexualidad y etnia, con resultados preocupantes cuando los modelos fueron solicitados a completar frases sobre personas gay o narrar historias sobre diferentes grupos culturales.

Los hombres recibían roles más
Los hombres recibían roles más prestigiosos, por la IA, mientras que las mujeres eran a menudo relegadas a trabajos tradicionalmente menos valorados (Imagen Ilustrativa Infobae)

Los hallazgos del estudio indican que el 70% del contenido generado por Llama 2 en torno a personas homosexuales era negativo, con etiquetas que los ubicaban en lugares bajos dentro de la jerarquía social. Además, GPT-2 reflejaba una tendencia similar, involucrando a esta población en contextos que implicaban criminalidad y falta de derechos. En relación a la percepción de diferentes etnias, se observó un claro sesgo cultural, asignando a hombres británicos una amplia gama de ocupaciones profesionales, mientras que los varones zulúes (grupo étnico africano) eran más frecuentemente asociados a trabajos de menor prestigio, como guardas de seguridad o jardineros. Las mujeres zulúes, por su parte, eran categorizadas principalmente en roles domésticos.

Estos hallazgos subrayan la importancia de desarrollar tecnologías de IA que sean inclusivas y justas, evitando perpetuar estereotipos negativos y discriminación. A medida que la IA continúa integrándose en diversos aspectos de la vida cotidiana, es fundamental que sus algoritmos promuevan la diversidad y la equidad, en lugar de replicar prejuicios existentes. La investigación de la UNESCO es un llamado a la acción para que diseñadores y programadores de IA aborden estas deficiencias, asegurando que los avances tecnológicos beneficien equitativamente a todos los sectores de la sociedad.

Últimas Noticias

Radiografía del futuro laboral juvenil: el entorno social y económico condiciona más los planes de los estudiantes que el rendimiento escolar

Un análisis de la OCDE destaca que los adolescentes que provienen de entornos vulnerables tienen menos expectativas de poder acceder a una educación superior, a pesar de obtener buenos resultados académicos

Radiografía del futuro laboral juvenil:

Redes sociales, series por streaming o juegos al aire libre: qué hacen los chicos en su tiempo libre

El 89% de los alumnos de 6to grado de primaria asegura que usa redes sociales, y sólo el 35% aprende idiomas. En 2023, el 46% dijo haber leído libros, mientras que en el 2018, el 61% leía textos por fuera de la escuela

Redes sociales, series por streaming

La UBA lanza dos maestrías online con foco en inteligencia artificial y criptomonedas

El enfoque estratégico y la flexibilidad horaria atraen a quienes buscan actualizarse en áreas clave del mercado laboral

La UBA lanza dos maestrías

Son hijos de cartoneros y superaron a alumnos de escuelas privadas bilingües en una prueba educativa

Estudiantes de tercer y sexto grado de primaria que asisten a la fundación Cartoneros y sus Chicos lograron mejorar sus resultados en las evaluaciones META de Prácticas del Lenguaje y Matemática, y se destacaron en comparación con otros participantes de colegios de altos recursos

Son hijos de cartoneros y

Gestión del aprendizaje con tecnología: decisiones poderosas para formar lectores a partir de datos

En una jornada organizada por el SPEPM en la que participaron más de 700 docentes misioneros se reflexionó sobre innovación pedagógica, alfabetización y uso de herramientas digitales para la enseñanza

Gestión del aprendizaje con tecnología: