
En la carrera por dominar el panorama de la inteligencia artificial, las empresas se están topando con un muro que ningún algoritmo puede resolver: el miedo humano. A pesar de los miles de millones de dólares invertidos en la infraestructura de IA generativa (generative AI), un nuevo informe pone de manifiesto una paradoja crítica: mientras que los empleados adoptan herramientas de IA a un ritmo vertiginoso a nivel personal, siguen profundamente recelosos frente a los mandatos corporativos.
Carolyn Dewar, socia sénior en McKinsey y coautora de CEO Excellence, sostiene que la paralización de la IA empresarial no es un fracaso técnico sino una crisis de liderazgo. Al hablar sobre el estado actual de la adopción de la IA en febrero de 2026, Dewar enfatiza que la narrativa de la "eficiencia" se ha vuelto sinónimo de "recortes de empleo" en la mente de los trabajadores, creando una cultura de silencio que ahoga la innovación genuina.
El núcleo del problema radica en el "déficit de confianza". Los empleados usan cada vez más la "IA en la sombra" ("Shadow AI") —herramientas no autorizadas usadas para completar tareas sin el conocimiento del empleador— porque temen que la transparencia lleve a la automatización de sus puestos. Esta desconexión amenaza con dejar inutiles las grandes inversiones corporativas en IA, ya que los datos y los flujos de trabajo necesarios para entrenar los modelos empresariales permanecen ocultos en las sombras.
Datos recientes sugieren que, si bien más del 90% de los trabajadores del conocimiento están familiarizados con la IA generativa, una parte significativa oculta activamente su uso ante la dirección. Este comportamiento surge de una postura defensiva. Cuando la comunicación del liderazgo se centra únicamente en las ganancias de productividad y la reducción de costos, la plantilla interpreta la "transformación" como un preludio a los despidos.
Dewar advierte que este miedo paraliza la propia experimentación que las empresas necesitan. "La IA no decidirá el futuro; los líderes sí lo harán", afirma. La tecnología en sí es neutral, pero la intención detrás de su despliegue es lo que determina el sentimiento de los empleados. Si la plantilla cree que la IA se les está "imponiendo" en vez de implementarse "con" ellos, la adopción se estanca y el retorno de la inversión genera un abismo entre las expectativas ejecutivas y la realidad operativa.
La narrativa predominante en 2026 es que la IA remodelará inevitablemente las industrias, pero Dewar postula que la forma de ese futuro depende por completo de las decisiones humanas que se tomen hoy. Los líderes que tendrán éxito no serán los que tengan el mejor código, sino aquellos que puedan reconstruir la "seguridad psicológica" (psychological safety) necesaria para que sus equipos experimenten sin miedo a quedar obsoletos.
Dewar aboga por un cambio en el estilo de liderazgo: alejarse del modelo tradicional de "mando y control", que es demasiado lento para la era de la IA, hacia un liderazgo basado en el "contexto". En este modelo, los líderes establecen las barreras y los valores, pero confían en que los equipos distribuidos innoven dentro de esos límites. Este enfoque requiere un nivel de vulnerabilidad y transparencia que a muchos ejecutivos les resulta incómodo.
Para cerrar la brecha de confianza, los comportamientos de liderazgo deben evolucionar. La siguiente tabla describe el cambio necesario en la filosofía de gestión identificado por expertos de la industria:
| Liderazgo tradicional | Liderazgo en la era de la IA | Impacto en la adopción |
|---|---|---|
| Enfoque en supervisión y cumplimiento | Enfoque en habilitación y límites de seguridad | Fomenta la experimentación en lugar del secretismo |
| Eficiencia como métrica principal | Creación de valor y aumento (augmentation) como métricas primarias | Reduce el miedo a la sustitución inmediata de empleos |
| Toma de decisiones de arriba hacia abajo | Toma de decisiones distribuida con contexto claro | Acelera el ciclo de retroalimentación para herramientas de IA |
| Mentalidad de "no fallar" | Seguridad psicológica para fallar y aprender | Desbloquea casos de uso novedosos para IA generativa |
| Acaparamiento de información | Transparencia radical | Construye la confianza necesaria para el intercambio de datos |
Un punto crítico de fallo en las estrategias actuales de IA es la negligencia hacia la gerencia intermedia. A menudo denominada la "clase media congelada", esta gerencia es en realidad el alma de la organización. Están presionados entre los mandatos ejecutivos de integración de la IA y las inquietudes de sus subordinados directos.
Dewar y sus colegas señalan que con frecuencia se asigna a los gerentes intermedios la tarea de "desplegar" herramientas de IA sin otorgarles la capacidad de redefinir los roles. Para tener éxito, las organizaciones deben empoderar a estos gerentes para que actúen como arquitectos del nuevo flujo de trabajo. Necesitan la autoridad para decir: "Esta herramienta de IA se encarga del 40% de las tareas rutinarias, por lo que ahora mi equipo puede centrarse en interacciones con clientes de alto contacto", en lugar de simplemente que les digan que reduzcan la plantilla en un porcentaje equivalente.
Cuando los gerentes intermedios reciben apoyo, se convierten en los campeones del cambio. Cuando son ignorados o amenazados, se transforman en los bloqueadores más efectivos de la innovación, protegiendo a sus equipos al retrasar la implementación.
El camino a seguir requiere un enfoque "centrado en el ser humano" para la estrategia de la IA. Esto no es meramente un complemento de habilidades blandas sino una necesidad estratégica contundente. Las empresas que han escalado con éxito la IA más allá de la fase piloto comparten un rasgo común: invierten tanto en gestión del cambio y en la mejora de habilidades como en la propia tecnología.
Dewar sugiere que los líderes deben articular una visión donde la IA sea una herramienta para aumento (augmentation) en lugar de reemplazo. Esto implica conversaciones honestas sobre cómo evolucionarán los roles. Significa garantizar que las ganancias de eficiencia se reinviertan en el crecimiento —nuevos productos, mejor servicio al cliente y expansión— en lugar de simplemente fluir hacia la línea de fondo como ahorros de costos.
En última instancia, la tecnología está lista, pero la plantilla espera una señal de que es seguro usarla. Hasta que los líderes puedan prometer de forma creíble que la IA es una socia en el éxito de sus empleados, el potencial completo de estas poderosas herramientas seguirá bloqueado detrás de un muro de miedo.