Los nuevos estándares para medir la equidad de inteligencia artificial y reducir sesgos discriminatorios

Los investigadores de la Universidad de Stanford propusieron ocho nuevas referencias que podrían transformar la forma en que interactúan las redes neuronales. MIT Technology Review difundió los modelos que intentan mejorar la precisión de resultados sin estereotipos

Guardar
Los investigadores de la Universidad
Los investigadores de la Universidad de Stanford propusieron ocho nuevos benchmarks para medir la equidad en inteligencia artificial (Imagen ilustrativa, no real, realizada por IA)

En la actualidad, la inteligencia artificial (IA) está moldeando aspectos fundamentales de la vida cotidiana, desde la medicina hasta la educación. Sin embargo, uno de los mayores desafíos en su desarrollo y despliegue es la presencia de sesgos que pueden influir en las decisiones automatizadas, perpetuando desigualdades sociales y afectando a grupos vulnerables de manera desproporcionada.

Debido a esto, el MIT Technology Review compartió la nueva propuesta de los expertos para controlar rasgos discriminatorios.

Recientemente, un equipo de investigadores de la Universidad de Stanford realizó un estudio y propuso ocho nuevos benchmarks -una referencia para evaluar la equidad en la IA-, los cuales ofrecen un enfoque más matizado y preciso que los estándares tradicionales.

Los nuevos estándares buscan reducir
Los nuevos estándares buscan reducir sesgos en modelos de IA y promover la diversidad propia de los humanos (Imagen ilustrativa, no real, realizada por IA)

Los nuevos benchmarks de IA que proponen los científicos

El equipo de investigación de Stanford, liderado por Angelina Wang, miembro postdoctoral en el Instituto para la Inteligencia Artificial Centrada en el Ser Humano y RegLab, identificó una nueva forma de evaluar los sesgos en los modelos de IA mediante la creación de diferentes benchmarks, clasificados en dos categorías: descriptivos y normativos.

Estas referencias surgen a raíz de la frustración con los enfoques tradicionales de medición de la equidad, los cuales, no siempre logran capturar la complejidad de los sesgos presentes en los sistemas de IA.

A través de estos nuevos indicadores, los especialistas buscan ofrecer herramientas más precisas para analizar cómo los modelos de IA comprenden el mundo y si perpetúan estereotipos o desigualdades.

Problema con los enfoques tradicionales para la equidad

Los enfoques tradicionales, como el benchmark DiscrimEval, se centran en medir los patrones discriminatorios a partir de las respuestas que los modelos de IA dan a preguntas relacionadas con datos demográficos. Sin embargo, estos métodos demostraron ser insuficientes en la lucha contra el sesgo, ya que aunque los modelos puedan obtener puntuaciones altas en estos benchmarks, no necesariamente se traducen en resultados equitativos.

Un modelo de IA que tiene un desempeño excelente en la evaluación de la equidad podría generar respuestas que siguen perpetuando estereotipos dañinos.

Este fenómeno quedó en evidencia con el caso de Google Gemini, que produjo imágenes históricamente inexactas de figuras como los fundadores de EEUU, representados incorrectamente como diversos racialmente. Este tipo de errores subraya la necesidad urgente de evaluar la IA desde nuevas perspectivas, capaces de reflejar mejor las complejidades sociales y culturales.

El desarrollo de benchmarks descriptivos
El desarrollo de benchmarks descriptivos y normativos ofrece un enfoque más preciso para evaluar la equidad entre personas (EFE)

Los benchmarks descriptivos propuestos por Stanford, miden la capacidad de un modelo de IA para responder preguntas objetivas sobre hechos específicos, como leyes y características demográficas.

Mientras que los benchmarks normativos abordan cuestiones más complejas y subjetivas, centradas en la capacidad del modelo para diferenciar entre grupos sociales y evaluar el daño potencial de sus respuestas en un contexto más amplio.

Impacto de los métodos actuales para reducir sesgos

Aunque los métodos actuales de reducción de sesgo lograron algunos avances, los expertos destacan que estas estrategias pueden ser contraproducentes. Por ejemplo, cuando se instruye a los modelos de IA para tratar a todos los grupos de manera igualitaria, sin tener en cuenta las diferencias reales entre ellos, el resultado puede ser una disminución de la precisión sin lograr mejorar realmente la equidad.

Esto es particularmente evidente en campos como la medicina, donde los sistemas de IA diseñados para diagnosticar enfermedades como el melanoma mostraron mejores resultados para pieles claras debido a la falta de datos de entrenamiento sobre pieles oscuras. Intentar igualar los resultados para todos los grupos sin reconocer las diferencias puede, irónicamente, empeorar la situación.

La directora ejecutiva del Proyecto de Inteligencia Colectiva, Divya Siddarth, explicó: “Estuvimos atrapados durante mucho tiempo en nociones desactualizadas de lo que significa la equidad y el sesgo”.

En tanto, la solución, según afirman los especialistas, no es tratar a todos de la misma manera, sino entender las diferencias y abordarlas de manera que todos los grupos puedan beneficiarse con la tecnología.

La creación de conjuntos de
La creación de conjuntos de datos diversos es clave para mejorar los beneficios para los humanos con la inteligencia artificial (Imagen ilustrativa, no real, realizada por IA)

Posibles soluciones y avances futuros

Para abordar estos desafíos, los investigadores proponen diversas soluciones. Una de ellas es el desarrollo de conjuntos de datos más diversos y representativos que permitan entrenar modelos de IA con una mayor variedad de experiencias. No obstante, su creación puede ser costosa y llevar mucho tiempo.

Además, la “interpretabilidad mecanicista”, que busca entender y manipular los accionares internos de los modelos de IA, podría ofrecer una solución eficaz. Esto permitiría a los científicos identificar y corregir los sesgos en las redes neuronales de la IA.

También se sugirió que el enfoque de “humano en el circuito” podría ser necesario, especialmente en situaciones complejas donde las decisiones éticas son clave.

Sandra Wachter, profesora en la Universidad de Oxford, argumentó que “la idea de que la tecnología pueda ser completamente justa y objetiva es un mito”. Los modelos de IA, nunca podrán reemplazar la intervención humana en las decisiones relacionadas con el sesgo y la ética.