AI News

沉默的對峙:創新與焦慮

在爭奪人工智慧領域主導地位的競賽中,企業正撞上一堵再好的演算法也無法突破的牆:人類的恐懼。儘管已向生成式AI(generative AI)基礎設施投入數十億美元,一份新報告卻突顯了一個關鍵的悖論——員工在個人層面以驚人的速度採用 AI 工具,但對公司強制性的政策仍抱持深刻懷疑。

Carolyn Dewar,McKinsey 的資深合夥人兼CEO Excellence 合著者,主張企業 AI 的停滯並非技術失敗,而是領導力危機。Dewar 在 2026 年 2 月談及當前的 AI 採用情況時強調,「效率」的敘事在員工心中已等同於「裁員」,造成一種噤聲文化,扼殺了真正的創新。

問題的核心在於「信任赤字」。員工越來越常使用陰影AI(Shadow AI)——未經授權、在雇主不知情下用來完成工作的工具——因為他們擔心透明會導致自己的職務被自動化。這種脫節可能使企業在 AI 上的大量投資變得無用,因為用於訓練企業模型的資料與工作流程反而隱藏在暗處。

「陰影AI」現象

最新資料顯示,雖然超過 90% 的知識型工作者熟悉生成式AI, 但有相當比例的人會主動向管理層隱瞞他們的使用情況。這種行為源於一種防禦姿態。當領導層的溝通僅著重於生產力提升和成本削減時,員工便將「轉型」解讀為裁員的前奏。

Dewar 警告說,這股恐懼會凍結企業所需的實驗精神。她主張:「AI 不會決定未來;領導者會。」技術本身是中性的,但部署它的意圖會左右員工的情緒。如果員工相信 AI 是在對他們「施加」而非與他們「共事」,採用就會停滯,而投資報酬率也會在高層期望與營運現實之間造成裂痕。

McKinsey 的 Dewar:「AI 不會決定未來,領導者會」

2026 年主流的敘事認為 AI 將不可避免地重塑產業,但 Dewar 主張,那個未來的「形狀」完全取決於今天的人類抉擇。能夠成功的領導者,不是擁有最好程式碼的人,而是能重建團隊所需的「心理安全(psychological safety)」,讓成員在不擔心被淘汰的前提下勇於嘗試的人。

Dewar 主張領導風格必須轉變——從傳統的「指揮與控制(command and control)」模式走向以「情境(context)」為主導的領導。在這個模式中,領導者訂立界限與價值,但信任分散的團隊在這些範圍內創新。這種做法需要程度不等的脆弱性與透明度,而這正是許多高管感到不自在的地方。

從「指揮與控制」到「情境」

為了彌合信任缺口,領導行為必須演變。下表概述了業界專家所指出的管理哲學必要轉變:

傳統領導 AI 時代領導 對採用的影響
強調監督與合規 強調賦能與界線 鼓勵實驗而非保密
以效率為首要指標 以價值創造與能力增強為首要指標 減少對立即被取代的恐懼
自上而下的決策 在明確情境下的分散決策 加速 AI 工具的回饋迴圈
「別失敗」心態 允許失敗並學習的心理安全 為生成式AI解鎖新穎用例
資訊囤積 徹底透明 建立資料共享所需的信任

中層管理者的困境

當前 AI 策略的一個關鍵失敗點是忽視中層管理者。這些常被稱為「frozen middle(凍結的中層)」的管理者,其實是組織的靈魂。他們被置於高層要求 AI 整合的指示與直接下屬的焦慮之間。

Dewar 與她的同事指出,中層管理者經常被要求「推出」AI 工具,卻沒有被賦予重新定義職務的權限。要成功,組織必須授權這些管理者成為新工作流程的架構師。他們需要有權力說:「這個 AI 工具處理了 40% 的繁瑣工作,因此我的團隊現在可以專注於高互動的客戶互動」,而不是僅被告知要以同等比例裁減人數。

當中層管理者受到支持時,他們會成為變革的擁護者;當他們被忽視或遭到威脅時,他們會成為最有效的創新阻擋者,透過拖延實施來保護自己的團隊。

重建以人為本的契約

未來的道路需要以「以人為本(human-centric)」的 AI 策略。這不僅是附加的軟技能,而是一項硬性的策略必要條件。那些成功將 AI 從試點階段擴展開來的公司有一個共同特徵:他們在變革管理與技能提升上的投入,與在技術本身上的投入同等重要。

Dewar 建議領導者必須闡明一個願景:將 AI 作為增強(augmentation)的工具,而非替代(replacement)。這需要關於職務如何演變的誠實對話。還要保證效率提升會再投資於成長——新產品、更好的客戶服務與擴張——而不是僅僅以成本節省的形式流向盈餘底線。

歸根結底,技術已經就緒,但勞動力正等待一個可以安全使用的訊號。在領導者能夠可信地承諾 AI 是員工成功的夥伴之前,這些強大工具的全部潛力仍將被恐懼之牆所阻隔。

精選