AI News

침묵의 대치: 혁신 대 불안

인공지능 분야를 장악하기 위한 경쟁에서, 기업들은 어떤 알고리즘으로도 해결할 수 없는 벽에 부딪히고 있다: 인간의 두려움. 생성형 AI (generative AI) 인프라에 수십억 달러가 쏟아져 들어갔음에도 불구하고, 새로운 보고서는 심각한 역설을 강조한다—직원들은 개인적으로는 AI 도구를 눈에 띄게 빠른 속도로 채택하고 있으나, 기업의 강제 정책에는 깊은 불신을 가지고 있다.

McKinsey의 수석 파트너이자 CEO Excellence의 공저자인 Carolyn Dewar는 기업용 AI의 정체는 기술적 실패가 아니라 리더십의 위기라고 주장한다. 2026년 2월 AI 채택의 현황에 대해 이야기하며, Dewar는 노동자들의 머릿속에서 "효율성"이라는 서사가 "감원"과 동의어가 되어 진정한 혁신을 억누르는 침묵 문화를 만들었다고 강조한다.

문제의 핵심은 "신뢰 적자"에 있다. 직원들은 투명성이 자신의 역할이 자동화되는 결과로 이어질 것을 두려워하여 점점 더 "섀도우 AI (Shadow AI)"—고용주가 모르는 상태로 업무를 완료하기 위해 사용하는 비인가 도구—를 활용하고 있다. 이 불일치는 기업이 모델을 학습시키는 데 필요한 데이터와 워크플로우가 그림자 속에 숨겨져 있기 때문에 주요 기업용 AI 투자를 무용지물로 만들 위험이 있다.

"섀도우 AI (Shadow AI)" 현상

최근 데이터는 90% 이상 지식 근로자 (knowledge workers)가 생성형 AI (generative AI)를 알고 있지만, 상당수가 관리자에게 자신의 사용을 적극적으로 숨기고 있음을 시사한다. 이러한 행동은 방어적 태도에서 비롯된다. 리더십의 소통이 생산성 향상과 비용 절감에만 초점을 맞출 때, 직원들은 "변혁"을 감원의 전주곡으로 해석한다.

Dewar는 이러한 두려움이 기업들이 필요로 하는 실험을 얼어붙게 만든다고 경고한다. "AI가 미래를 결정하지는 않을 것이다; 리더들이 결정할 것이다,"라고 그녀는 주장한다. 기술 자체는 중립적이지만, 그것을 배치하는 의도가 직원 감정에 영향을 준다. 만약 노동력이 AI가 그들과 함께하는("with") 것이 아니라 그들에게 행해지는("to") 것이라고 믿는다면, 채택은 정체되고 투자 수익은 경영진의 기대와 운영 현실 사이에 깊은 간극을 만든다.

McKinsey의 Dewar: "AI가 미래를 결정하지는 않을 것이다, 리더들이 결정할 것이다"

2026년의 지배적 서사는 AI가 산업을 불가피하게 재편할 것이라는 것이다. 그러나 Dewar는 그 미래의 "형태"는 오늘 이루어지는 인간의 결정에 전적으로 달려 있다고 주장한다. 성공하는 리더는 최고의 코드를 가진 사람이 아니라, 자신의 팀이 노후화에 대한 두려움 없이 실험할 수 있도록 필요한 "심리적 안전 (psychological safety)"을 재구축할 수 있는 사람들일 것이다.

Dewar는 리더십 스타일의 전환을 옹호한다—AI 시대에는 너무 느린 전통적 "명령과 통제 (command and control)" 모델에서 벗어나 "컨텍스트(context)"를 통한 리더십으로 이동해야 한다고 말한다. 이 모델에서 리더는 가드레일과 가치를 설정하되 분산된 팀이 그 경계 내에서 혁신하도록 신뢰한다. 이 접근법은 많은 임원들이 불편하게 여기는 수준의 취약성과 투명성을 요구한다.

명령에서 컨텍스트로

신뢰 격차를 메우기 위해서는 리더십 행태가 진화해야 한다. 다음 표는 업계 전문가들이 식별한 관리 철학의 필요한 전환을 정리한 것이다:

Traditional Leadership AI-Era Leadership Impact on Adoption
감시와 규정 준수에 초점 활성화와 가드레일에 초점 은밀함 대신 실험을 장려
주요 지표로서의 효율성 주요 지표로서의 가치 창출 및 증강 (augmentation) 즉각적인 일자리 대체에 대한 두려움을 감소
상향식 의사결정 명확한 컨텍스트를 가진 분산 의사결정 AI 도구에 대한 피드백 루프를 가속화
"실패하지 마라" 사고방식 실패하고 배우는 심리적 안전 (psychological safety) 생성형 AI (generative AI)의 새로운 사용 사례를 개방
정보 사재기 근본적 투명성 데이터 공유에 필요한 신뢰를 구축

중간 관리자 딜레마

현재 AI 전략의 심각한 실패 지점은 중간 관리자에 대한 방치이다. 종종 "동결된 중간층"이라고 불리는 이 관리자들은 실제로 조직의 영혼이다. 그들은 AI 통합에 대한 경영진의 명령과 자신의 직속 보고자들의 불안 사이에 끼어 있다.

Dewar와 그녀의 동료들은 중간 관리자들이 역할을 재정의할 권한 없이 AI 도구를 "배포"하는 임무를 자주 맡는다고 지적한다. 성공하려면 조직은 이러한 관리자들이 새로운 워크플로우의 설계자가 될 수 있도록 권한을 부여해야 한다. 그들은 단순히 동등한 비율로 인력을 감축하라는 지시를 받는 대신, "이 AI 도구가 단순 반복 업무의 40%를 처리하므로 이제 우리 팀은 고접촉 고객 상호작용에 집중할 수 있다"라고 말할 수 있는 권한이 필요하다.

중간 관리자들이 지원을 받을 때, 그들은 변화의 옹호자가 된다. 무시되거나 위협을 받을 때, 그들은 구현을 지연시키며 팀을 보호하는 가장 효과적인 혁신 차단자가 된다.

인간 계약 재구축

앞으로 나아가기 위한 길은 "인간 중심 (human-centric)" 접근 방식의 AI 전략을 요구한다. 이것은 단순한 소프트 스킬 추가가 아니라 엄격한 전략적 필요성이다. 파일럿 단계를 넘어 AI를 성공적으로 확장한 기업들은 공통된 특성을 가지고 있다: 그들은 기술 자체에 투자하는 만큼 변화 관리와 역량 강화에도 투자한다.

Dewar는 리더들이 AI를 *대체(replacement)*가 아니라 *증강(augmentation)*을 위한 도구로서의 비전을 명확히 해야 한다고 제안한다. 이는 역할이 어떻게 발전할지에 대한 정직한 대화를 포함한다. 효율성 향상은 단지 비용 절감으로만 흘러가지 않고—신제품, 더 나은 고객 서비스, 확장 등—성장에 재투자될 것임을 보장해야 한다는 의미다.

궁극적으로, 기술은 준비되어 있지만, 노동력은 그것을 안전하게 사용할 수 있다는 신호를 기다리고 있다. 리더들이 AI가 직원들의 성공의 파트너가 될 것이라고 신뢰성 있게 약속할 수 있을 때까지, 이 강력한 도구들의 잠재력은 두려움의 벽에 가로막혀 잠긴 채로 남을 것이다.

추천