La IA no democratiza el conocimiento, lo concentra

Un experimento de Harvard con 78 trabajadores destruye uno de los grandes mitos de la inteligencia artificial: que cualquiera, con la herramienta correcta, puede hacer el trabajo de un experto

Guardar
Un estudio publicado en marzo de 2026 por investigadores de Harvard Business School y Stanford lo demuestra con datos.

Hay una creencia que se repite en cada foro de tecnología, en cada presentación de producto, en cada promesa de startup: la inteligencia artificial va a nivelar el campo de juego. El asistente de ventas va a poder hacer análisis financieros. El junior va a rendir como el senior. El conocimiento, finalmente, se va a democratizar.

Es una idea seductora. También es falsa.

Un estudio publicado en marzo de 2026 por investigadores de Harvard Business School y Stanford lo demuestra con datos. El experimento involucró a 78 empleados de IG Group, firma global de derivados financieros. Los participantes se dividieron en tres grupos: analistas web —expertos en crear artículos de inversión—, especialistas en marketing, y técnicos como desarrolladores de software y científicos de datos. A todos se les pidió el mismo trabajo: producir artículos usando IA generativa.

El resultado no fue el que la narrativa dominante promete.

La distancia al conocimiento es el verdadero factor

El estudio de Harvard y
El estudio de Harvard y Stanford revela que la inteligencia artificial no democratiza el conocimiento, sino que lo concentra entre expertos. (Imagen Ilustrativa Infobae)

Los técnicos terminaron 13% por debajo de los analistas web en calidad de escritura. No porque tuvieran una herramienta diferente —usaron el mismo modelo. Sino porque su distancia conceptual a la tarea era demasiado grande para que la IA la cubriera. Los especialistas en marketing, en cambio, rindieron casi a la par de los expertos: su perfil de conocimiento era adyacente, y la IA funcionó como amplificador.

“Los que están demasiado lejos de los expertos del dominio carecen de la comprensión necesaria o de las habilidades para usar la información de manera efectiva”, explica el profesor Edward McFowland III, coautor del estudio. La IA puede dar el mapa, escriben los investigadores. Navegar el terreno es otra cosa.

Dónde sí funciona: concebir ideas

La IA iguala rendimientos únicamente
La IA iguala rendimientos únicamente en la fase de conceptualización de ideas, donde las diferencias entre expertos y novatos desaparecen. (Imagen Ilustrativa Infobae)

El estudio también identifica dónde la IA sí nivela: en la etapa de conceptualización. Antes de escribir, los participantes debían organizar el material, construir esquemas, definir el enfoque. En esa fase, los tres grupos rindieron igual —calificaciones de 4.05, 4.18 y 4.12 sobre 5— sin diferencia significativa entre expertos y novatos.

La razón es que estructurar ideas es una tarea abstracta y codificable. La IA puede proveer el andamiaje. Pero cuando la tarea exige juicio, matiz y experiencia —como escribir con claridad sobre un tema complejo—, la brecha vuelve a aparecer. La productividad fue espectacular para todos: el tiempo de escritura bajó de 87 minutos a 22. Pero velocidad no es lo mismo que calidad.

Lo que esto cambia para las organizaciones

Este hallazgo es una advertencia directa para los líderes que rediseñan equipos bajo el supuesto de que la IA va a sustituir talento especializado con talento genérico asistido por herramientas. Lo que Harvard demuestra es que la IA amplifica el talento existente. No lo crea donde no lo hay.

Lo veo en Infobae todos los días. Los periodistas que producen mejor trabajo con IA no son los que más dependen de ella. Son los que tienen criterio editorial e instinto noticioso suficiente para saber cuándo la herramienta se equivoca. Usan la IA para acelerar lo que ya dominan. No para suplir lo que no saben.

El uso de IA reduce
El uso de IA reduce el tiempo de escritura de 87 a 22 minutos, aunque no logra equiparar la calidad del contenido generado por expertos humanos. (Imagen Ilustrativa Infobae)

La narrativa de la democratización confunde dos cosas distintas: acceso a la información y capacidad de usarla bien. Google democratizó el acceso hace veinte años. El mundo no se llenó de médicos ni abogados autodidactas por eso. La IA sube el techo de lo que los expertos producen. No sube el piso hasta el nivel del experto.

El estudio lleva un nombre revelador: “The GenAI Wall Effect”, El efecto muro. Cuando la brecha de conocimiento es demasiado grande, la IA choca contra ese muro. Y el usuario, sin darse cuenta, también.

La IA no transforma las compañías. La transforman los empleados que la usan.