
企業ガバナンスと新興技術の複雑な関係を浮き彫りにする出来事として、KPMGオーストラリアのシニアパートナーが、内部トレーニング試験で人工知能(AI)を使用して不正行為を行ったとして、10,000オーストラリアドル(約7,000米ドル)の罰金を科されました。2026年2月16日月曜日に同社が認めたこの事件は、プロフェッショナルサービス業界が直面している「導入のパラドックス(adoption paradox)」を鮮明に示しています。企業がワークフローへのAI統合を急ぐ一方で、従業員の能力を検証する際の使用を監視することに苦慮しているのです。
Creati.aiのオブザーバーにとって、この出来事は単なる個人の不正行為ではなく、アルゴリズム時代において専門知識がどのように評価されるかという、より広範な変化の兆しです。皮肉なことに、問題となったトレーニングモジュールは、AIの倫理的かつ責任ある使用について従業員に教えるために設計されたものでした。
違反が発生したのは、登録会社監査人である匿名のパートナーが、義務付けられた内部評価の認知的要求を回避しようとした際でした。Australian Financial Reviewの報道によると、このパートナーはトレーニングコースの参照マニュアルを生成型AI(Generative AI)ツールにアップロードしました。AIはアップロードされた資料に基づいて試験問題の回答を生成し、パートナーは意図された通りに内容を理解することなくテストを完了することができました。
KPMGオーストラリアは、独自の内部AI検出ツールを使用してこの不正行為を特定しました。このツールは、提出パターンの異常を検知しました。これにより、2026年特有の再帰的な物語が生まれました。監査法人が、AI試験で不正をするためにAIを使用した監査人を捕まえるために、AIを使用しているのです。
その結果は迅速に出されましたが、それは新しい懲戒のあり方を模索する企業の試みも反映しています。
パートナーの年次(シニアリティ)がヘッドラインを飾っていますが、彼らは単独で行動していたわけではありません。KPMGオーストラリアは、7月の会計年度開始以来、合計28名のスタッフが内部評価での不正に生成型AIツールを使用しているところを摘発されたと明らかにしました。他の27名はマネージャー級以下であると特定されています。
KPMGオーストラリアのCEOであるアンドリュー・イェーツ氏は、大組織が直面している困難を率直に認め、この状況に対処しました。「ほとんどの組織と同様に、当社も内部トレーニングやテストに関連するAIの役割と使用について取り組んできました」とイェーツ氏は述べました。「社会がいかに急速にAIを受け入れたかを考えると、これを完全に把握するのは非常に難しいことです」。
この「技術的な手抜き」の波は、強力な大規模言語モデル(LLMs)へのアクセスの容易さが、学術的および職業的な不正行為への参入障壁を浸食していることを示唆しています。共謀や事前のメモを必要とすることが多かった従来のカンニングとは異なり、AIによる不正は瞬時に、そして多くの場合単独で行うことができるため、コンプライアンスのノルマ達成に追われる多忙なプロフェッショナルにとって魅力的な近道となっています。
この出来事の中心的な皮肉は、その主題にあります。KPMGのような企業が「AIファースト」の組織へと転換するにつれ、AI倫理、プロンプトエンジニアリング、データプライバシーに関する広範なトレーニングを義務付けています。しかし、彼らがスタッフに使いこなせるよう訓練しているツールそのもの(膨大な文書を要約し、複雑な回答を合成できるプラットフォーム)が、従来の選択式評価を時代遅れにするツールでもあるのです。
これがガバナンス上の課題を生んでいます。従業員がAIに関する質問に答えるためにAIを使用した場合、それは機転が利くことの証明でしょうか、それとも不誠実でしょうか?資格試験の文脈では明らかに後者ですが、それは従業員がクライアント向けの業務で採用するよう推奨されているワークフロー、つまりテクノロジーを活用して効率的に問題を解決するという行為を正確に模倣しています。
KPMGがこの不正を検出できたことは、企業の監視体制が不正のツールとともに進化していることを示しています。同社の「AI検出ツール」は、回答時間、コピー&ペーストのテレメトリ、およびAI生成テキストに特徴的な言語パターンを分析していると考えられます。この力学は、内部的な軍拡競争を確立しています。
このサイクルは多大なリソースを消費し、現在のトレーニングモデルの有効性に疑問を投げかけます。プロフェッショナルがテストプロセスを自動化できるのであれば、業界は真に能力を検証するために、試験官が立ち会う対面試験や口頭評価に戻る必要があるかもしれません。
この事件は、四大会計事務所(Big Four accounting firms)(KPMG、デロイト、PwC、EY)がテストの誠実性を巡って精査を受けた初めてのケースではありません。2021年、KPMGオーストラリアは、1,100人以上のパートナーとスタッフが内部トレーニングテストの回答を共有していたことが発覚した後、米国公開会社会計監視委員会(PCAOB)から615,000オーストラリアドルの罰金を科されました。
しかし、生成型AIの導入は脅威の性質を変えます。2021年のスキャンダルは人間同士の共謀、つまり社会的な失敗でした。2026年のスキャンダルは人間とAIの相互作用、つまり技術的な失敗を伴います。この区別は、規制当局や金融セクターにおけるGoogle E-E-A-T(経験、専門性、権威性、信頼性)基準を維持する上で極めて重要です。監査人がアルゴリズムの助けなしに自身の知識を検証できると信頼されないのであれば、複雑な企業データを監査する彼らの能力は、投資家や規制当局にとって懸念事項となります。
この変化を理解するために、従来の試験不正のメカニズムと、AI支援による新しい不正の波を比較してみましょう。
以下の表は、生成型AIツールの普及により、職業上の不正行為の状況がどのように変化しているかを示しています。
| 特徴 | 従来の不正行為 | AI支援による不正行為 |
|---|---|---|
| 主な手法 | メールやチャットでの回答共有、同僚との共謀 | LLMへの質問やマニュアルのアップロード |
| 実行速度 | 遅い(他者との調整が必要) | 瞬時(リアルタイム生成) |
| 検出の複雑さ | 中程度(同一回答のパターンマッチング) | 高い(AIがユーザーごとに独自の表現を生成) |
| 社会的要件 | 協力的な参加者のネットワークが必要 | 単独活動(共犯者は不要) |
| ガバナンスの課題 | 文化的(同調圧力への対処) | 技術的(外部ツールの遮断) |
| 典型的な弁明 | 「みんなやっていた」 | 「利用可能なツールを使っていただけだ」 |
KPMGのパートナーに科された10,000オーストラリアドルの罰金は、高額所得者への経済的影響のためではなく、それが示す先例のために重要です。これは、内部コンプライアンスにおけるAIの誤用が、盗用やデータの捏造に匹敵する、職業倫理の重大な違反であることを確立するものです。
2026年が深まるにつれ、リモートでのデジタル形式のトレーニングにおける「性善説(オナーシステム)」が、生成型AIの能力の重みの下で崩壊しつつあることは明白です。厳格な基準と絶対的な誠実さという認識に大きく依存している会計業界にとって、解決策はより優れた検出ソフトウェアではなく、専門知識をどのように測定するかという根本的な再設計にあるのかもしれません。
それまでは、KPMGのような企業は、クライアントには積極的にAI導入を推進しながら、自らの階層内ではその使用を厳格に監視するという、危ういバランスを保ち続けることになるでしょう。より広いAI業界への教訓は明確です。誰の仕事でも代行できるツールを作るのであれば、それらがあなたのトレーニングも代行してしまう覚悟が必要だということです。