
Dans la course à la domination du paysage de l'intelligence artificielle (artificial intelligence), les entreprises se heurtent à un mur qu'aucun algorithme ne peut résoudre : la peur humaine. Malgré des milliards de dollars investis dans l'infrastructure de l'IA générative (generative AI), un nouveau rapport met en lumière un paradoxe critique — alors que les employés adoptent des outils d'IA à un rythme effréné dans leur vie personnelle, ils demeurent profondément méfiants à l'égard des injonctions des entreprises.
Carolyn Dewar, associée senior chez McKinsey et coautrice de CEO Excellence, soutient que le blocage de l'IA en entreprise n'est pas un échec technique mais une crise du leadership. S'exprimant sur l'état actuel de l'adoption de l'IA en février 2026, Dewar souligne que le récit de « l'efficacité » est devenu synonyme de « suppressions d'emplois » dans l'esprit des travailleurs, créant une culture du silence qui étouffe l'innovation véritable.
Le cœur du problème réside dans le « déficit de confiance ». Les employés utilisent de plus en plus l'IA fantôme (Shadow AI) — des outils non autorisés utilisés pour accomplir des tâches à l'insu de l'employeur — parce qu'ils craignent que la transparence ne conduise à l'automatisation de leurs fonctions. Ce fossé menace de rendre inutiles les investissements massifs des entreprises dans l'IA, car les données et les flux de travail nécessaires pour entraîner les modèles d'entreprise restent cachés dans l'ombre.
Les données récentes suggèrent que bien que plus de 90 % des travailleurs intellectuels connaissent l'IA générative, une part significative cache activement son utilisation à la direction. Ce comportement provient d'une posture défensive. Lorsque la communication du leadership se concentre uniquement sur les gains de productivité et la réduction des coûts, la main-d'œuvre interprète la « transformation » comme un prélude à des licenciements.
Dewar avertit que cette peur gèle l'expérimentation même dont les entreprises ont besoin. « L'IA ne décidera pas de l'avenir ; ce seront les dirigeants », affirme-t-elle. La technologie elle-même est neutre, mais l'intention derrière son déploiement est ce qui façonne le sentiment des employés. Si la main-d'œuvre croit que l'IA lui est « imposée » plutôt que développée « avec » elle, l'adoption s'enlisera, et le retour sur investissement creusera un fossé entre les attentes des dirigeants et la réalité opérationnelle.
Pour combler le fossé de confiance, les comportements de leadership doivent évoluer. Le tableau suivant présente le changement nécessaire de philosophie managériale identifié par des experts du secteur :
| Leadership traditionnel | Leadership à l'ère de l'IA | Impact sur l'adoption |
|---|---|---|
| Accent sur la surveillance et la conformité | Accent sur l'habilitation et les garde-fous | Encourage l'expérimentation plutôt que le secret |
| Efficacité comme métrique principale | Création de valeur et augmentation comme métriques principales | Réduit la peur d'un remplacement immédiat des emplois |
| Prise de décision descendante | Prise de décision distribuée avec contexte clair | Accélère la boucle de rétroaction pour les outils d'IA |
| Mentalité « Ne pas échouer » | Sécurité psychologique (psychological safety) pour échouer et apprendre | Libère des cas d'usage nouveaux pour l'IA générative |
| Accumulation d'information | Transparence radicale | Construit la confiance nécessaire au partage des données |
Un point de rupture critique dans les stratégies d'IA actuelles est la négligence des managers intermédiaires. Souvent qualifiés de « milieu gelé », ces managers sont en réalité l'âme de l'organisation. Ils sont pris en étau entre les injonctions exécutives d'intégration de l'IA et les angoisses de leurs subordonnés directs.
Dewar et ses collègues notent que les managers intermédiaires se voient fréquemment confier le « déploiement » d'outils d'IA sans disposer du pouvoir de redéfinir les rôles. Pour réussir, les organisations doivent habiliter ces managers à agir comme architectes du nouveau flux de travail. Ils doivent avoir l'autorité de dire : « Cet outil d'IA prend en charge 40 % des tâches ingrates, donc mon équipe peut désormais se concentrer sur des interactions clients à forte valeur ajoutée », plutôt que de se voir simplement ordonner de réduire les effectifs d'un pourcentage équivalent.
Lorsque les managers intermédiaires sont soutenus, ils deviennent les champions du changement. Lorsqu'ils sont ignorés ou menacés, ils deviennent les bloqueurs les plus efficaces de l'innovation, protégeant leurs équipes en retardant la mise en œuvre.
La voie à suivre exige une stratégie d'IA centrée sur l'humain. Ce n'est pas simplement un ajout de compétences douces, mais une nécessité stratégique dure. Les entreprises qui ont réussi à passer l'IA du stade pilote à l'échelle partagent un trait commun : elles investissent autant dans la gestion du changement et la montée en compétences que dans la technologie elle-même.
Dewar suggère que les dirigeants doivent articuler une vision où l'IA est un outil d'augmentation plutôt que de remplacement. Cela implique des conversations honnêtes sur l'évolution des rôles. Cela signifie garantir que les gains d'efficacité seront réinvestis dans la croissance — nouveaux produits, meilleur service client et expansion — plutôt que de simplement se traduire en économies de coûts.
En fin de compte, la technologie est prête, mais la main-d'œuvre attend un signal lui indiquant qu'il est sûr de l'utiliser. Tant que les dirigeants ne pourront pas promettre de manière crédible que l'IA est un partenaire dans la réussite de leurs employés, le plein potentiel de ces outils puissants restera enfermé derrière un mur de peur.