
在爭奪人工智慧領域主導地位的競賽中,企業正撞上一堵再好的演算法也無法突破的牆:人類的恐懼。儘管已向生成式AI(generative AI)基礎設施投入數十億美元,一份新報告卻突顯了一個關鍵的悖論——員工在個人層面以驚人的速度採用 AI 工具,但對公司強制性的政策仍抱持深刻懷疑。
Carolyn Dewar,McKinsey 的資深合夥人兼CEO Excellence 合著者,主張企業 AI 的停滯並非技術失敗,而是領導力危機。Dewar 在 2026 年 2 月談及當前的 AI 採用情況時強調,「效率」的敘事在員工心中已等同於「裁員」,造成一種噤聲文化,扼殺了真正的創新。
問題的核心在於「信任赤字」。員工越來越常使用陰影AI(Shadow AI)——未經授權、在雇主不知情下用來完成工作的工具——因為他們擔心透明會導致自己的職務被自動化。這種脫節可能使企業在 AI 上的大量投資變得無用,因為用於訓練企業模型的資料與工作流程反而隱藏在暗處。
最新資料顯示,雖然超過 90% 的知識型工作者熟悉生成式AI, 但有相當比例的人會主動向管理層隱瞞他們的使用情況。這種行為源於一種防禦姿態。當領導層的溝通僅著重於生產力提升和成本削減時,員工便將「轉型」解讀為裁員的前奏。
Dewar 警告說,這股恐懼會凍結企業所需的實驗精神。她主張:「AI 不會決定未來;領導者會。」技術本身是中性的,但部署它的意圖會左右員工的情緒。如果員工相信 AI 是在對他們「施加」而非與他們「共事」,採用就會停滯,而投資報酬率也會在高層期望與營運現實之間造成裂痕。
2026 年主流的敘事認為 AI 將不可避免地重塑產業,但 Dewar 主張,那個未來的「形狀」完全取決於今天的人類抉擇。能夠成功的領導者,不是擁有最好程式碼的人,而是能重建團隊所需的「心理安全(psychological safety)」,讓成員在不擔心被淘汰的前提下勇於嘗試的人。
Dewar 主張領導風格必須轉變——從傳統的「指揮與控制(command and control)」模式走向以「情境(context)」為主導的領導。在這個模式中,領導者訂立界限與價值,但信任分散的團隊在這些範圍內創新。這種做法需要程度不等的脆弱性與透明度,而這正是許多高管感到不自在的地方。
為了彌合信任缺口,領導行為必須演變。下表概述了業界專家所指出的管理哲學必要轉變:
| 傳統領導 | AI 時代領導 | 對採用的影響 |
|---|---|---|
| 強調監督與合規 | 強調賦能與界線 | 鼓勵實驗而非保密 |
| 以效率為首要指標 | 以價值創造與能力增強為首要指標 | 減少對立即被取代的恐懼 |
| 自上而下的決策 | 在明確情境下的分散決策 | 加速 AI 工具的回饋迴圈 |
| 「別失敗」心態 | 允許失敗並學習的心理安全 | 為生成式AI解鎖新穎用例 |
| 資訊囤積 | 徹底透明 | 建立資料共享所需的信任 |
當前 AI 策略的一個關鍵失敗點是忽視中層管理者。這些常被稱為「frozen middle(凍結的中層)」的管理者,其實是組織的靈魂。他們被置於高層要求 AI 整合的指示與直接下屬的焦慮之間。
Dewar 與她的同事指出,中層管理者經常被要求「推出」AI 工具,卻沒有被賦予重新定義職務的權限。要成功,組織必須授權這些管理者成為新工作流程的架構師。他們需要有權力說:「這個 AI 工具處理了 40% 的繁瑣工作,因此我的團隊現在可以專注於高互動的客戶互動」,而不是僅被告知要以同等比例裁減人數。
當中層管理者受到支持時,他們會成為變革的擁護者;當他們被忽視或遭到威脅時,他們會成為最有效的創新阻擋者,透過拖延實施來保護自己的團隊。
未來的道路需要以「以人為本(human-centric)」的 AI 策略。這不僅是附加的軟技能,而是一項硬性的策略必要條件。那些成功將 AI 從試點階段擴展開來的公司有一個共同特徵:他們在變革管理與技能提升上的投入,與在技術本身上的投入同等重要。
Dewar 建議領導者必須闡明一個願景:將 AI 作為增強(augmentation)的工具,而非替代(replacement)。這需要關於職務如何演變的誠實對話。還要保證效率提升會再投資於成長——新產品、更好的客戶服務與擴張——而不是僅僅以成本節省的形式流向盈餘底線。
歸根結底,技術已經就緒,但勞動力正等待一個可以安全使用的訊號。在領導者能夠可信地承諾 AI 是員工成功的夥伴之前,這些強大工具的全部潛力仍將被恐懼之牆所阻隔。