
En la actualidad, la inteligencia artificial (IA) está moldeando aspectos fundamentales de la vida cotidiana, desde la medicina hasta la educación. Sin embargo, uno de los mayores desafíos en su desarrollo y despliegue es la presencia de sesgos que pueden influir en las decisiones automatizadas, perpetuando desigualdades sociales y afectando a grupos vulnerables de manera desproporcionada.
Debido a esto, el MIT Technology Review compartió la nueva propuesta de los expertos para controlar rasgos discriminatorios.
Recientemente, un equipo de investigadores de la Universidad de Stanford realizó un estudio y propuso ocho nuevos benchmarks -una referencia para evaluar la equidad en la IA-, los cuales ofrecen un enfoque más matizado y preciso que los estándares tradicionales.

Los nuevos benchmarks de IA que proponen los científicos
El equipo de investigación de Stanford, liderado por Angelina Wang, miembro postdoctoral en el Instituto para la Inteligencia Artificial Centrada en el Ser Humano y RegLab, identificó una nueva forma de evaluar los sesgos en los modelos de IA mediante la creación de diferentes benchmarks, clasificados en dos categorías: descriptivos y normativos.
Estas referencias surgen a raíz de la frustración con los enfoques tradicionales de medición de la equidad, los cuales, no siempre logran capturar la complejidad de los sesgos presentes en los sistemas de IA.
A través de estos nuevos indicadores, los especialistas buscan ofrecer herramientas más precisas para analizar cómo los modelos de IA comprenden el mundo y si perpetúan estereotipos o desigualdades.
Problema con los enfoques tradicionales para la equidad
Los enfoques tradicionales, como el benchmark DiscrimEval, se centran en medir los patrones discriminatorios a partir de las respuestas que los modelos de IA dan a preguntas relacionadas con datos demográficos. Sin embargo, estos métodos demostraron ser insuficientes en la lucha contra el sesgo, ya que aunque los modelos puedan obtener puntuaciones altas en estos benchmarks, no necesariamente se traducen en resultados equitativos.
Un modelo de IA que tiene un desempeño excelente en la evaluación de la equidad podría generar respuestas que siguen perpetuando estereotipos dañinos.
Este fenómeno quedó en evidencia con el caso de Google Gemini, que produjo imágenes históricamente inexactas de figuras como los fundadores de EEUU, representados incorrectamente como diversos racialmente. Este tipo de errores subraya la necesidad urgente de evaluar la IA desde nuevas perspectivas, capaces de reflejar mejor las complejidades sociales y culturales.

Los benchmarks descriptivos propuestos por Stanford, miden la capacidad de un modelo de IA para responder preguntas objetivas sobre hechos específicos, como leyes y características demográficas.
Mientras que los benchmarks normativos abordan cuestiones más complejas y subjetivas, centradas en la capacidad del modelo para diferenciar entre grupos sociales y evaluar el daño potencial de sus respuestas en un contexto más amplio.
Impacto de los métodos actuales para reducir sesgos
Aunque los métodos actuales de reducción de sesgo lograron algunos avances, los expertos destacan que estas estrategias pueden ser contraproducentes. Por ejemplo, cuando se instruye a los modelos de IA para tratar a todos los grupos de manera igualitaria, sin tener en cuenta las diferencias reales entre ellos, el resultado puede ser una disminución de la precisión sin lograr mejorar realmente la equidad.
Esto es particularmente evidente en campos como la medicina, donde los sistemas de IA diseñados para diagnosticar enfermedades como el melanoma mostraron mejores resultados para pieles claras debido a la falta de datos de entrenamiento sobre pieles oscuras. Intentar igualar los resultados para todos los grupos sin reconocer las diferencias puede, irónicamente, empeorar la situación.
La directora ejecutiva del Proyecto de Inteligencia Colectiva, Divya Siddarth, explicó: “Estuvimos atrapados durante mucho tiempo en nociones desactualizadas de lo que significa la equidad y el sesgo”.
En tanto, la solución, según afirman los especialistas, no es tratar a todos de la misma manera, sino entender las diferencias y abordarlas de manera que todos los grupos puedan beneficiarse con la tecnología.

Posibles soluciones y avances futuros
Para abordar estos desafíos, los investigadores proponen diversas soluciones. Una de ellas es el desarrollo de conjuntos de datos más diversos y representativos que permitan entrenar modelos de IA con una mayor variedad de experiencias. No obstante, su creación puede ser costosa y llevar mucho tiempo.
Además, la “interpretabilidad mecanicista”, que busca entender y manipular los accionares internos de los modelos de IA, podría ofrecer una solución eficaz. Esto permitiría a los científicos identificar y corregir los sesgos en las redes neuronales de la IA.
También se sugirió que el enfoque de “humano en el circuito” podría ser necesario, especialmente en situaciones complejas donde las decisiones éticas son clave.
Sandra Wachter, profesora en la Universidad de Oxford, argumentó que “la idea de que la tecnología pueda ser completamente justa y objetiva es un mito”. Los modelos de IA, nunca podrán reemplazar la intervención humana en las decisiones relacionadas con el sesgo y la ética.
ultimas
Shakira vs. Gerard Piqué: quién conquista las redes sociales con sus millones de seguidores
El exfutbolista español tiene una parte de sus seguidores en la Kings League, el torneo de fútbol que transmite en Twitch y YouTube

Hace 20 años Steve Jobs revelaba el poder del podcast: “la próxima generación de la radio”
Este sistema fue integrado en Apple a través del iPod y permitió gestionar suscripciones y sincronizar episodios automáticamente

Cómo hacer transferencias gratis desde cuentas Nu y de inmediato
Esta herramienta será compatible con bancos como Bancolombia, Davivienda y billeteras digitales como Nequi

Un joven de 16 años creó su propio celular, cuesta 30 dólares y lo hizo con materiales reciclables
El dispositivo está pensado para cumplir acciones básicas como llamadas y mensajes, por eso no tiene conexión a internet

WhatsApp tiene siete emojis nuevos: cuáles son y qué significa cada uno
Los usuarios de dispositivos Android y iPhone tienen acceso a estas novedades a través de una actualización reciente
