AI News

자동화의 역설: AI 윤리 시험 부정행위에 AI를 사용한 KPMG 파트너 벌금 부과

기업 거버넌스와 신흥 기술 간의 복잡한 관계를 조명하는 사건에서, KPMG 호주의 시니어 파트너가 내부 교육 시험에서 부정행위를 하기 위해 인공지능을 사용한 혐의로 10,000호주달러(약 7,000미국달러)의 벌금을 부과받았습니다. 2026년 2월 16일 월요일에 회사 측이 확인한 이 사건은 전문 서비스 산업이 직면한 '채택의 역설(adoption paradox)'을 극명하게 보여주는 사례입니다. 기업들이 AI를 업무 프로세스에 통합하기 위해 서두르는 반면, 인력의 역량을 검증하는 과정에서 AI의 사용을 감독하는 데에는 어려움을 겪고 있다는 점입니다.

Creati.ai의 관찰자들에게 이 사건은 단순한 개인의 비위 행위가 아니라, 알고리즘 시대에 전문 지식이 평가되는 방식이 광범위하게 변화하고 있음을 알리는 신호입니다. 아이러니하게도 해당 교육 모듈은 직원들에게 인공지능의 윤리적이고 책임감 있는 사용에 대해 가르치기 위해 설계된 것이었습니다.

사건: 도구가 규칙을 능가할 때

위반 행위는 등록 회사 감사인인 익명의 파트너가 필수 내부 평가의 인지적 요구 사항을 우회하려고 시도하면서 발생했습니다. Australian Financial Review의 보도에 따르면, 해당 파트너는 교육 과정의 참고 매뉴얼을 생성형 AI(Generative AI) 도구에 업로드했습니다. 그 후 AI는 업로드된 자료를 바탕으로 시험 문제에 대한 답변을 생성했으며, 이를 통해 파트너는 의도된 대로 콘텐츠를 학습하지 않고도 시험을 완료할 수 있었습니다.

KPMG 호주(KPMG Australia)는 제출 패턴의 이상 징후를 포착한 자체 내부 AI 탐지 도구를 사용하여 이러한 비위 행위를 식별했습니다. 이는 2026년만의 독특하고 순환적인 서사를 만들어냅니다. 즉, 감사 법인이 AI 시험에서 부정행위를 하기 위해 AI를 사용하는 감사인을 잡기 위해 AI를 사용하는 상황입니다.

그 결과는 신속하게 집행되었으나, 새로운 징계 환경을 헤쳐 나가려는 회사의 시도 또한 반영하고 있습니다:

  • 금전적 벌금: 해당 파트너에게 10,000호주달러의 벌금이 부과되었습니다.
  • 재교육: 해당 인원은 도움 없이 평가를 다시 치러야 했습니다.
  • 공식 경고: 해당 파트너에게 전문적 성실성(professional integrity)과 관련된 경고가 발령되었습니다.
  • 보고: 이 사건은 호주 및 뉴질랜드 공인회계사 협회(CA ANZ)에 자진 보고되었습니다.

광범위한 문제: 28명의 직원과 그 이상

파트너의 직급이 높아 헤드라인을 장식했지만, 그들만이 단독으로 행동한 것은 아니었습니다. KPMG 호주는 7월 회계연도 시작 이후 총 28명의 직원이 내부 평가에서 부정행위를 하기 위해 생성형 AI 도구(generative AI tools)를 사용하다가 적발되었다고 밝혔습니다. 나머지 27명은 매니저급 이하인 것으로 확인되었습니다.

KPMG 호주의 CEO인 앤드루 예이츠(Andrew Yates)는 대규모 조직이 직면한 어려움을 솔직하게 인정하며 이 상황을 언급했습니다. 예이츠는 "대부분의 조직과 마찬가지로 우리도 내부 교육 및 테스트와 관련하여 AI의 역할과 사용 문제로 고심해 왔습니다"라고 말했습니다. "사회가 이를 얼마나 빨리 수용했는지를 고려할 때, 이 문제를 완전히 통제하는 것은 매우 어려운 일입니다."

이러한 '기술적 지름길 찾기'의 물결은 강력한 대규모 언어 모델(Large Language Models, LLMs)에 대한 접근 용이성이 학문적 및 전문적 부정직함에 대한 진입 장벽을 무너뜨리고 있음을 시사합니다. 종종 공모나 미리 작성된 메모가 필요했던 전통적인 부정행위와 달리, AI 기반 부정행위는 즉각적이고 대개 단독으로 수행될 수 있어, 규정 준수 할당량을 채워야 하는 압박을 받는 바쁜 전문가들에게 유혹적인 지름길이 됩니다.

기업 AI 교육의 역설

이 사건의 핵심적인 아이러니는 주제 자체에 있습니다. KPMG와 같은 기업들이 'AI 우선' 조직으로 전환함에 따라 AI 윤리, 프롬프트 엔지니어링, 데이터 프라이버시에 대한 광범위한 교육을 의무화하고 있습니다. 그러나 이들이 직원들에게 사용법을 교육하고 있는 바로 그 도구들—방대한 문서를 요약하고 복잡한 답변을 합성할 수 있는 플랫폼들—이 바로 전통적인 객관식 평가를 쓸모없게 만드는 도구이기도 합니다.

이는 거버넌스 과제를 야기합니다. 만약 직원이 AI에 대한 질문에 답하기 위해 AI를 사용한다면, 그것은 자원 활용 능력을 보여주는 것입니까 아니면 부정직함을 보여주는 것입니까? 인증 시험의 맥락에서는 명백히 후자이지만, 이는 직원들이 고객 대면 업무에서 채택하도록 권장받는 워크플로, 즉 기술을 활용하여 문제를 효율적으로 해결하는 방식을 그대로 모방하고 있습니다.

내부 컴플라이언스의 '군비 경쟁'

KPMG가 이러한 부정행위를 감지할 수 있었다는 것은 기업의 모니터링이 비위 행위의 도구와 함께 진화하고 있음을 나타냅니다. 회사의 "AI 탐지 도구"는 응답 시간, 복사-붙여넣기 텔레메트리, AI 생성 텍스트의 특징적인 언어 패턴을 분석할 가능성이 높습니다. 이러한 역학 관계는 내부적인 군비 경쟁을 형성합니다:

  1. 배포: 회사가 고객 업무를 위해 생산성 AI를 도입합니다.
  2. 제한: 회사가 내부 테스트를 위해 이러한 도구의 사용을 금지합니다.
  3. 우회: 직원이 테스트를 건너뛰기 위해 도구를 사용합니다.
  4. 탐지: 회사가 우회 행위를 적발하기 위해 대항 AI를 배치합니다.

이러한 사이클은 상당한 자원을 소비하며 현재 교육 모델의 효용성에 대한 의문을 제기합니다. 전문가들이 테스트 프로세스를 자동화할 수 있다면, 업계는 역량을 진정으로 검증하기 위해 감독관이 입회하는 대면 시험이나 구술 평가로 돌아가야 할 수도 있습니다.

AI 거버넌스에 대한 업계 전반의 시사점

이 사건은 4대 회계법인(Big Four accounting firms)(KPMG, Deloitte, PwC, EY)이 테스트 무결성 문제로 조사를 받은 첫 번째 사례가 아닙니다. 2021년, KPMG 호주는 1,100명 이상의 파트너와 직원이 내부 교육 테스트 답변을 공유한 사실이 밝혀진 후 미국 상장회사 회계감독위원회(PCAOB)로부터 615,000호주달러의 벌금을 부과받은 바 있습니다.

하지만 생성형 AI의 도입은 위협의 성격을 변화시킵니다. 2021년의 스캔들은 인간 간의 공모, 즉 사회적 실패와 관련이 있었습니다. 2026년의 스캔들은 인간과 AI의 상호작용, 즉 기술적 실패와 관련이 있습니다. 이러한 구분은 규제 기관과 금융 부문에서 Google E-E-A-T(경험, 전문성, 권위성, 신뢰성) 표준을 유지하는 데 있어 매우 중요합니다. 만약 감사인이 알고리즘의 도움 없이 자신의 지식을 검증하는 것조차 신뢰할 수 없다면, 복잡한 기업 데이터를 감사하는 그들의 능력은 투자자와 규제 기관의 우려 사항이 될 것입니다.

이러한 변화를 이해하기 위해 전통적인 시험 부정행위의 메커니즘과 새로운 AI 지원 위반 물결을 비교해 볼 수 있습니다.

비교: 전문 서비스 분야의 전통적 부정행위 vs. AI 지원 부정행위

다음 표는 생성형 AI 도구의 가용성으로 인해 전문적 비위 행위의 양상이 어떻게 변화하고 있는지를 보여줍니다.

특징 전통적 부정행위 AI 지원 부정행위
주요 방법 이메일/채팅을 통한 정답 공유, 동료 간 공모 LLM에 질문/매뉴얼 업로드
실행 속도 느림 (타인과의 협력 필요) 즉각적 (실시간 생성)
탐지 복잡성 보통 (동일한 답변의 패턴 매칭) 높음 (AI가 사용자별로 고유한 문구 생성)
사회적 요구 사항 기꺼이 참여하려는 네트워크 필요 단독 활동 (공범 필요 없음)
거버넌스 과제 문화적 (동료 압박 해결) 기술적 (외부 도구 차단)
전형적인 변명 "모두가 그렇게 하고 있었다" "가용한 도구를 사용했을 뿐이다"

전문가 자격 인증의 미래

KPMG 파트너에게 부과된 10,000호주달러의 벌금은 고소득 개인에 대한 경제적 타격 때문이 아니라, 그것이 세운 선례 때문에 중요합니다. 이는 내부 컴플라이언스에서 AI를 오용하는 것이 표절이나 데이터 조작에 필적하는 전문 윤리의 실질적인 위반임을 확립한 것입니다.

2026년이 깊어짐에 따라, 원격 디지털 교육을 위한 '명예 시스템(honor system)'이 생성형 AI의 성능이라는 무게 아래 무너지고 있음이 분명해졌습니다. 엄격한 표준과 절대적인 성실성에 대한 인식에 크게 의존하는 회계 업계의 경우, 해결책은 더 나은 탐지 소프트웨어가 아니라 전문성을 측정하는 방식의 근본적인 재설계일 수 있습니다.

그때까지 KPMG와 같은 기업들은 고객에게는 AI 채택을 적극적으로 홍보하면서도 자사 인력 내부에서는 AI 사용을 엄격히 단속하는 아슬아슬한 줄타기를 계속할 것입니다. 광범위한 AI 산업에 주는 교훈은 명확합니다. 누구나의 업무를 대신할 수 있는 도구를 만든다면, 그 도구가 당신의 교육까지 대신할 준비도 되어 있어야 한다는 것입니다.

추천