
人工知能分野で主導権を争う競争において、企業はどんなアルゴリズムでも解決できない壁に直面している。それは人間の恐れだ。何十億ドルもの資金が生成AI(generative AI)インフラに注ぎ込まれているにもかかわらず、新しい報告は重大な逆説を浮き彫りにしている――従業員は個人的にはAIツールを目まぐるしい速度で採用している一方で、企業の強制には深い疑念を抱いたままでいる。
McKinseyのシニアパートナーでありCEO Excellenceの共著者であるCarolyn Dewarは、エンタープライズAIの停滞は技術的な失敗ではなくリーダーシップの危機だと主張している。2026年2月のAI採用の現状について語る中で、Dewarは「効率性」という物語が労働者の心理では「解雇」と同義になってしまい、本当のイノベーションを抑制する沈黙の文化を生んでいると強調する。
問題の核心は「信頼の欠如(trust deficit)」にある。従業員は自分の役割が自動化されることを恐れており、そのため雇用者に知られずにタスクを完了するための非公式なツール、シャドーAI(Shadow AI)をますます利用している。この断絶は、企業がAIモデルを訓練するために必要なデータとワークフローが陰に隠れたままになり、主要なAI投資を無用にしてしまう恐れがある。
最近のデータは、知識労働者(knowledge workers)の90%超が生成AIを知っている一方で、かなりの割合が管理職に使用を隠していることを示唆している。この行動は防御的な姿勢に由来している。リーダーシップからのコミュニケーションが生産性向上やコスト削減だけに焦点を当てると、労働力は「変革」を解雇の前触れと解釈してしまう。
Dewarは、この恐れが企業に必要な実験を凍結させると警告する。「AIが未来を決めるのではなく、リーダーが決める」と彼女は主張する。テクノロジー自体は中立であり、導入の背後にある意図が従業員の感情を左右する。労働力がAIが「彼らに対して行われる(done to)」ものだと感じれば、採用は停滞し、投資対効果は経営陣の期待と現場の現実の間に大きな溝を生む。
2026年の主流の物語はAIが産業を不可避に再形成するとするものだが、Dewarはその未来の「形」は今日行われる人間の判断に完全に依存していると述べる。成功するリーダーは最高のコードを持つ者ではなく、チームが陳腐化を恐れずに実験できる「心理的安全性(psychological safety)」を再構築できる者だ。
Dewarはリーダーシップ様式の転換を提唱している――AI時代には従来の「指揮命令型(command and control)」モデルは遅すぎるため、代わりに「コンテクスト(context)」を通じて導くことへ移行するというものだ。このモデルでは、リーダーはガードレールと価値観を設定しつつ、その枠内で分散したチームのイノベーションを信頼する。多くの経営者にとって、このアプローチは脆弱性と透明性のレベルを要求し、不快に感じられることが多い。
信頼のギャップを埋めるには、リーダーの行動が進化しなければならない。以下の表は業界の専門家が指摘する、管理哲学における必要な変化を示している。
| Traditional Leadership | AI-Era Leadership | Impact on Adoption |
|---|---|---|
| Focus on monitoring and compliance | Focus on enablement and guardrails | Encourages experimentation rather than secrecy |
| Efficiency as the primary metric | Value creation and augmentation as primary metrics | Reduces fear of immediate job replacement |
| Top-down decision making | Distributed decision making with clear context | Accelerates the feedback loop for AI tools |
| "Don't fail" mentality | Psychological safety to fail and learn | Unlocks novel use cases for generative AI |
| Information hoarding | Radical transparency | Builds the trust required for data sharing |
(注:表の見出しや列のラベルは英語のまま保持されています。内容は上記の日本語文脈に対応しています。)
現在のAI戦略における重大な失敗点は、ミドルマネジメントの軽視だ。しばしば「フローズン・ミドル(frozen middle)」と呼ばれるこれらのマネージャーは、実際には組織の魂である。彼らはAI統合のための経営陣の命令と、直属部下の不安の間で押しつぶされている。
Dewarと同僚たちは、ミドルマネージャーが役割を再定義する権限を与えられないままAIツールの「ローリングアウト(rolling out)」を任されることが多いと指摘している。成功するためには、組織はこれらのマネージャーを新しいワークフローの設計者として権限付与しなければならない。彼らは「このAIツールは単純作業の40%を処理するので、今や我々のチームはハイタッチな顧客対応に集中できる」と言える権限を必要としているのだ。単に同等の割合で人員削減するように命じられるだけではいけない。
ミドルマネージャーが支援されると、彼らは変革の推進者となる。無視されたり脅かされたりすると、実施を遅らせることでチームを守ろうとする、最も効果的なイノベーションの阻害要因になってしまう。
今後の道筋は「人間中心(human-centric)」のAI戦略を必要とする。これは単なるソフトスキルの付け足しではなく、厳然たる戦略的必要性だ。パイロット段階を超えてAIをスケールさせることに成功した企業には共通点がある――それは技術そのものに投資するのと同じくらい、チェンジマネジメントとスキル向上に投資していることだ。
Dewarは、リーダーはAIを「代替」ではなく「拡張(augmentation)」のためのツールであるというビジョンを明確に示さなければならないと示唆する。これには役割がどのように進化するかについての正直な対話が含まれる。効率化による利益は単にコスト削減として底に流れるのではなく、成長――新製品、より良いカスタマーサービス、事業拡大――に再投資されることを保証することを意味する。
究極的には、技術は準備が整っているが、労働力はそれを安全に使ってよいというシグナルを待っている。リーダーがAIを従業員の成功のパートナーであると信頼性をもって約束できるまで、これら強力なツールの潜在能力は恐れの壁の向こうに封じられたままである。