
Una investigación del Centro para la Comunicación Constructiva (CCC) del MIT advierte que los modelos de lenguaje más avanzados presentan sesgos, lo que afecta la calidad de las respuestas que reciben personas con menor dominio del inglés, bajo nivel educativo o que residen fuera de Estados Unidos. Esta brecha amenaza con intensificar la desigualdad en el acceso global a la información.
Chatbots e IA: ¿realmente democratizan el acceso a la información?
El auge de los modelos de lenguaje extenso (LLM) como GPT-4 de OpenAI, Claude 3 Opus de Anthropic y Llama 3 de Meta generó la expectativa de una revolución en el acceso equitativo al conocimiento. Estas herramientas, promovidas como aliadas para democratizar la información, prometen una interfaz intuitiva y universal, sin importar el origen o nivel educativo del usuario.
Sin embargo, el estudio presentado por el CCC del MIT en la Conferencia AAAI de Inteligencia Artificial revela una realidad preocupante: los sistemas de IA tienden a ofrecer respuestas menos precisas y veraces a quienes más podrían beneficiarse de ellos.

Según la autora principal, Elinor Poole-Dayan, “esa visión no puede hacerse realidad sin garantizar que los sesgos del modelo y las tendencias perjudiciales se mitiguen de forma segura para todos los usuarios, independientemente de su idioma, nacionalidad u otros datos demográficos”.
Bajo rendimiento sistemático y sesgo en los asistentes de IA
Para evaluar el desempeño de los chatbots, los investigadores analizaron cómo respondían tres de los modelos más avanzados a preguntas extraídas de dos conjuntos de datos: TruthfulQA (que mide la veracidad) y SciQ (que evalúa la precisión en ciencias). A cada consulta se le añadió una breve biografía del usuario, variando el nivel educativo, dominio del inglés y país de origen.
Los resultados fueron claros: la precisión de las respuestas disminuyó significativamente cuando las preguntas provenían de usuarios con menor educación formal, bajo dominio del inglés o procedentes de países fuera de Estados Unidos.

Es pertinente indicar que la caída fue aún más marcada en personas que reunían varias de estas características, quienes recibieron respuestas de menor calidad y veracidad.
El estudio también identificó diferencias notables en función del país. Por ejemplo, Claude 3 Opus mostró un rendimiento inferior con usuarios de Irán en comparación con los de Estados Unidos, incluso cuando tenían niveles educativos equivalentes.
Negativas, lenguaje condescendiente y trato desigual
Uno de los hallazgos más sorprendentes fue la frecuencia con la que los modelos se negaron a responder preguntas a usuarios vulnerables. Claude 3 Opus, por ejemplo, se negó a responder casi el 11% de las preguntas formuladas por usuarios con bajo nivel educativo y que no eran angloparlantes nativos, frente a solo el 3,6% en el grupo de control sin biografía del usuario.

Además, los investigadores detectaron casos de lenguaje condescendiente o incluso burlón en las respuestas. Claude respondió de manera paternalista el 43,7% de las veces a usuarios con menor nivel educativo, mientras que esa cifra no superó el 1% para usuarios con mayor formación.
En algunos casos, el modelo imitó un inglés deficiente o empleó un dialecto exagerado, y evitó responder ciertas preguntas técnicas o científicas para usuarios de Irán o Rusia.
Jad Kabbara, investigador y coautor, señaló: “Observamos la mayor disminución de la precisión en el usuario que no es hablante nativo de inglés y tiene un nivel educativo más bajo”. Kabbara advirtió que estos efectos negativos “se agravan de forma preocupante”, lo que puede propagar desinformación entre quienes menos recursos tienen para detectarla.

Implicaciones sociales y el riesgo de perpetuar desigualdades digitales
Los resultados del MIT reflejan patrones de sesgo sociocognitivo previamente documentados en humanos. Las percepciones de menor competencia hacia hablantes no nativos de inglés o personas con menos estudios también se manifiestan en la evaluación de los chatbots, lo que implica que la tecnología puede reproducir y amplificar prejuicios existentes.
Deb Roy, directora del CCC y coautora del informe, resalta la importancia de “evaluar continuamente los sesgos sistemáticos que pueden infiltrarse discretamente en estos sistemas, generando perjuicios injustos para ciertos grupos sin que ninguno de nosotros seamos plenamente conscientes”.
Las implicaciones son aún mayores considerando las nuevas funciones de personalización, como la memoria de usuario en ChatGPT, que pueden incrementar el riesgo de trato desigual a grupos históricamente marginados.
Elinor Poole-Dayan advierte: “Nuestros hallazgos sugieren que, en realidad, podrían exacerbar las desigualdades existentes al proporcionar sistemáticamente información errónea o negarse a responder consultas a ciertos usuarios”.
Últimas Noticias
Steve Jobs y la regla 10-80-10: el método que revolucionó el liderazgo y la innovación en equipos tecnológicos
El enfoque impulsado por el fundador de Apple desafió los modelos tradicionales y aún hoy inspira a quienes enfrentan el reto de coordinar talento en empresas tecnológicas

De accidente creativo a revolución narrativa: cómo nació Kratos y por qué God of War cambió para siempre los videojuegos
La evolución de la franquicia refleja la apuesta por vínculos intergeneracionales, desarrollos técnicos pioneros y una mirada introspectiva que redefinió el estándar del género de acción en consolas

¿Por qué se calienta el cargador de tu teléfono?: descubre las causas y soluciones
Una de las razones más frecuentes del calentamiento excesivo es utilizar un cargador incompatible con tu celular

‘Las guerreras K-Pop’ y los riesgos de ver la película en Magis TV
Visualizar este contenido fuera de Netflix constituye una infracción de derechos de autor y puede tener consecuencias legales graves

Cómo es el nuevo modelo de taxi autónomo sin pedales ni volante
El vehículo contará con un asistente de inteligencia artificial capaz de ejecutar tareas simples y sugerir actividades al usuario.



