Superar las barreras organizacionales para la adopción de IA

Harvard Business Review Management Update Spanish

Guardar

El entusiasmo en torno a la IA ha dominado las conversaciones entre los altos ejecutivos. Sin embargo, la mayoría de las organizaciones siguen teniendo dificultades para obtener rendimientos significativos de sus iniciativas de IA.

Para explorar estos desafíos con mayor profundidad, realizamos una investigación exhaustiva, combinando una encuesta a más de 100 ejecutivos de la C-suite con más de dos docenas de entrevistas en diferentes sectores. La encuesta reveló que el 45% de los ejecutivos consideraban que el ROI de la adopción de IA estaba por debajo de las expectativas, mientras que solo el 10% reportó resultados que superaban las expectativas. También destacó que las barreras más significativas son organizacionales, más que técnicas. A partir de estos hallazgos, identificamos un conjunto de obstáculos interconectados que tienen su origen en tres áreas: personas, procesos y política interna.

En este artículo, exploramos estos obstáculos interconectados y analizamos cómo los están abordando las empresas.

CULTIVAR LA PREPARACIÓN DE LAS PERSONAS PARA LA IA

Al pensar en la preparación de los empleados para la IA, nuestra investigación identificó tres problemas: incertidumbre, miedo al reemplazo y el problema de la autoimagen.

1. INCERTIDUMBRE: "¿QUÉ HARÁ REALMENTE ESTA IA?"

La encuesta global realizada por Slack en 2024 a más de 17,000 trabajadores de oficina reveló que el 61% de los empleados había dedicado menos de cinco horas a aprender sobre IA y el 30% no había recibido ninguna capacitación. Ante la falta de conocimientos, las opiniones pueden polarizarse. Algunos empleados descartan la IA por considerarla una simple moda pasajera, mientras que otros dan por sentado que puede hacerlo todo.

Para abordar estas preocupaciones, las empresas deben integrar la gobernanza de la IA en el trabajo diario y hacerla intuitiva para cada empleado. Una gobernanza eficaz no solo protege contra consecuencias no deseadas, sino que también ayuda a desmitificar la IA.

2. MIEDO AL REEMPLAZO: "¿CONSERVARÉ MI EMPLEO?"

Cuando los empleados sospechan que están entrenando un sistema que los reemplazará, cumplen con lo mínimo. Se muestran reticentes cuando se les pide "etiquetar datos" o "nutrir al modelo". Esta "trampa del entrenamiento" ralentiza la adopción de IA en empresas de servicios, retail y manufactura.

Las empresas pueden contrarrestar esto compartiendo los beneficios: ofrecer regalías de capacitación por el trabajo relacionado con los datos y el etiquetado, bonos de productividad vinculados a las ganancias obtenidas, y garantías profesionales que canalicen las mejoras de eficiencia hacia la recapacitación en lugar de los despidos.

El miedo al reemplazo también disminuye cuando la IA impulsa el crecimiento y no la reducción. Si la tecnología expande el negocio, las mejoras en eficiencia se sienten como una oportunidad, no como una amenaza.

3. EL PROBLEMA DE LA AUTOIMAGEN: "¿DARÉ LA IMPRESIÓN DE SER COMPETENTE?"

El miedo a la pérdida de estatus puede ser incluso más poderoso que el miedo a perder el empleo. Hemos observado a ingenieros que utilizan discretamente herramientas de IA, pero lo ocultan para no parecer menos competentes. A muchos les preocupa que admitir que utilizan IA pueda hacerles parecer perezosos, incompetentes o incluso deshonestos.

Una empresa de servicios financieros enfrentó este estigma lanzando un programa de "Máster en IA" que acelera la carrera profesional de los empleados que demuestran habilidades excepcionales en IA, sin importar su antigüedad.

PROCESOS: REDISEÑAR LOS FLUJOS DE TRABAJO

La adopción de IA a menudo fracasa cuando las organizaciones la tratan como una simple capa adicional sobre los procesos existentes. La verdadera transformación exige un cambio sistemático en tres niveles: el flujo de trabajo individual (nodos), las conexiones interfuncionales (bordes) y la coordinación a nivel de sistema (redes).

1. EL NIVEL NODO: TRANSFORMAR CÓMO TRABAJA CADA PERSONA

El equipo legal de una firma de consultoría inicialmente usaba la IA como una herramienta de corrección automática, ejecutándola al final de las revisiones tradicionales. El enfoque producía beneficios insignificantes, ya que la IA solo tenía una precisión del 100% en el 40% de los tipos de errores. Al reestructurar el flujo de trabajo para que la IA realizara la primera revisión (verificando solo los tipos de errores que manejaba mejor) los abogados pudieron centrarse exclusivamente en los restantes. Este rediseño demostró cómo replantear los flujos de trabajo permite aprovechar el valor de la IA.

2. EL NIVEL BORDE: REDISEÑAR LAS CONEXIONES

El nivel borde se centra en cómo la mejora del juicio local y los datos pueden transformar los procesos interdepartamentales y los flujos de toma de decisiones.

En una empresa japonesa de cosméticos, las asesoras de belleza de las tiendas solían ofrecer retroalimentación anecdótica y poco fiable. La IA generativa les ayudó a analizar las conversaciones con los clientes y los patrones de tráfico, proporcionando información estructurada. La sede central, que ahora confiaba en los datos, creó un bucle bidireccional: las campañas podían lanzarse más rápido y ajustarse en tiempo real. La frontera entre las operaciones locales y la planificación central se convirtió en un circuito receptivo en lugar de un comando unidireccional.

3. EL NIVEL RED: ORQUESTAR EL IMPACTO A NIVEL SISTÉMICO

Para generar un impacto empresarial real a partir de la IA, las empresas deben considerar el nivel red, es decir, cómo interactúan las mejoras a través de múltiples nodos y bordes dentro del sistema más amplio. Sin esta perspectiva, la IA puede simplemente trasladar los cuellos de botella de una parte de la red a otra, limitando las mejoras de rendimiento.

Abordar estos desafíos a nivel red requiere acciones coordinadas en todos los nodos y bordes. La adopción de IA debe sincronizarse entre nodos interconectados para que las mejoras de capacidad se igualen en toda la red.

POLÍTICA INTERNA: NAVEGAR POR EL PODER Y LA INFLUENCIA

La IA influye en quién gana y quién pierde dentro de las organizaciones. La política resultante (sobre datos, jerarquía y responsabilidad) suele resultar más formidable que los problemas técnicos. La adopción exitosa de la IA a menudo requiere rediseñar las estructuras de gobernanza, ajustar los mecanismos de incentivos y, en algunos casos, depender del liderazgo sénior para negociar acuerdos y eliminar barreras. He aquí tres problemas específicos que observamos en nuestra investigación:

1. ACAPARAMIENTO DE RECURSOS

Las organizaciones descubren rápidamente que el apetito de la IA por los datos y el conocimiento choca de frente con los instintos competitivos profundamente arraigados.

Entre unidades de negocio, las divisiones más grandes y exitosas, que poseen modelos de IA sofisticados y conjuntos de datos valiosos, suelen ver pocos incentivos como para compartirlos con unidades más pequeñas que podrían beneficiarse más. Compartir puede sentirse como habilitar a posibles competidores internos mientras se diluyen sus propios indicadores de rendimiento.

DBS Bank enfrentó esta resistencia diseñando una estructura de incentivos que recompensaba a las unidades por convertir los conjuntos de datos propios en activos reutilizables en la plataforma central. Una métrica clave rastreaba el porcentaje de los conjuntos de datos específicos de cada unidad que se habían transformado en recursos compartibles. Este enfoque derriba los silos al motivar a las unidades (grandes y pequeñas) a contribuir con datos accesibles y de alta calidad.

2. DISRUPCIÓN DE LA JERARQUÍA

La IA altera la jerarquía tradicional construida sobre dos pilares: experiencia y número de empleados. El primero se debilita cuando los empleados junior, armados con IA, superan a aquellos con más experiencia, y sienten que hacen más por menos. Algunas empresas responden ampliando los modelos de competencias para incluir explícitamente el dominio de la IA y acortando las escalas de promoción. Cuando los ciclos de ascenso se reducen de cinco años a uno o dos, y se recompensa el dominio de nuevas herramientas, los empleados más jóvenes ven una recompensa inmediata por aprender.

El segundo pilar, el poder a través del número de empleados y el control sobre los recursos, genera una resistencia aún mayor. Los gerentes son los guardianes de la adopción de IA, pero su autoridad suele depender del tamaño de sus equipos. Cuando la eficiencia amenaza con reducir esos equipos, sus intereses personales pueden descarrilar silenciosamente iniciativas de IA que, de otro modo, serían valiosas.

3. ATRIBUCIÓN DE RESPONSABILIDAD

La IA también altera el equilibrio tradicional entre culpa y discreción dentro de las organizaciones. Su precisión convierte la responsabilidad difusa en datos concretos, y eso puede generar nuevas fricciones políticas.

En Dingdong Maicai, una empresa china de comercio electrónico de comestibles, los sistemas de IA comenzaron a rastrear cada queja de los clientes hasta el departamento exacto responsable. Cuando un cliente recibía fruta en mal estado, los algoritmos podían determinar con precisión si el problema se debía a una mala compra por parte del departamento de aprovisionamiento, a un mal manejo durante el almacenamiento o a daños sufridos durante la entrega. Lo que antes era incertidumbre compartida se convirtió en una responsabilidad explícita.

Dingdong eventualmente cambió su sistema de atribución, permitiendo que el juicio final fuera humano. El objetivo no era rechazar la transparencia, sino amortiguarla con confianza. La adopción efectiva de IA requiere saber cuándo la precisión mejora el rendimiento y cuándo solo alimenta las políticas internas.

Al final, el desafío no es adoptar la IA, sino evolucionar junto con ella. La verdadera ventaja radica en construir una organización capaz de aprovechar plenamente el poder de la IA. Las empresas que la vean solo como una mejora técnica inevitablemente se quedarán atrás.