AI News

Ирония автоматизации: Партнер KPMG оштрафован за использование ИИ для обмана на экзамене по этике ИИ

В ситуации, подчеркивающей сложные отношения между корпоративным управлением и новыми технологиями, старший партнер KPMG Australia был оштрафован на 10 000 австралийских долларов (около 7 000 долларов США) за использование искусственного интеллекта (Artificial Intelligence, AI) для обмана на внутреннем квалификационном экзамене. Инцидент, подтвержденный фирмой в понедельник, 16 февраля 2026 года, служит яркой иллюстрацией «парадокса внедрения», с которым сталкивается индустрия профессиональных услуг: в то время как фирмы спешат интегрировать ИИ в свои рабочие процессы, они с трудом контролируют его использование при проверке компетенции своих сотрудников.

Для обозревателей Creati.ai это событие является не просто случаем индивидуального проступка, а сигналом более масштабного сдвига в том, как оцениваются профессиональные знания в эпоху алгоритмов. Учебный модуль, о котором идет речь, по иронии судьбы был разработан для обучения персонала этичному и ответственному использованию искусственного интеллекта.

Инцидент: Когда инструменты перехитрили правила

Нарушение произошло, когда неназванный партнер, зарегистрированный аудитор компании, попытался обойти когнитивные требования обязательной внутренней аттестации. Согласно сообщениям Australian Financial Review, партнер загрузил справочное руководство по учебному курсу в инструмент генеративного ИИ (Generative AI). Затем ИИ сгенерировал ответы на экзаменационные вопросы на основе загруженного материала, что позволило партнеру пройти тест, не изучая контент должным образом.

KPMG Australia выявила нарушение с помощью собственных внутренних инструментов обнаружения ИИ, которые зафиксировали аномалию в структуре ответов. Это создает рекурсивный сюжет, уникальный для 2026 года: аудиторская фирма использует ИИ, чтобы поймать аудитора, использующего ИИ для обмана на экзамене по ИИ.

Последствия были незамедлительными, но также отразили попытку фирмы адаптироваться к новому дисциплинарному ландшафту:

  • Финансовый штраф: На партнера был наложен штраф в размере 10 000 австралийских долларов.
  • Переподготовка: Физическое лицо было обязано пройти аттестацию повторно без посторонней помощи.
  • Официальные предупреждения: Партнеру было вынесено предупреждение относительно профессиональной честности.
  • Отчетность: Об инциденте было самолично сообщено в организацию Chartered Accountants Australia and New Zealand (CA ANZ).

Масштабная проблема: 28 сотрудников и это не предел

Хотя высокая должность партнера привлекла внимание заголовков, он действовал не в одиночку. KPMG Australia сообщила, что с начала финансового года в июле в общей сложности 28 сотрудников были пойманы на использовании генеративных инструментов ИИ для обмана на внутренних аттестациях. Остальные 27 человек были идентифицированы как сотрудники уровня менеджера и ниже.

Эндрю Йейтс, генеральный директор KPMG Australia, прокомментировал ситуацию, откровенно признав трудности, с которыми сталкиваются крупные организации. «Как и большинство организаций, мы пытаемся определить роль и порядок использования ИИ в том, что касается внутреннего обучения и тестирования», — заявил Йейтс. «Это очень сложная задача, учитывая, насколько быстро общество приняло эту технологию».

Эта волна «технологического срезания углов» говорит о том, что легкость доступа к мощным большим языковым моделям (Large Language Models, LLMs) размывает барьер для академической и профессиональной нечестности. В отличие от традиционного мошенничества, которое часто требовало сговора или заранее написанных заметок, обман с помощью ИИ может совершаться мгновенно и зачастую в одиночку, что делает его заманчивым коротким путем для занятых профессионалов, находящихся под давлением необходимости соблюдения нормативов.

Парадокс корпоративного обучения ИИ

Центральная ирония этого события заключается в самом предмете обучения. В то время как такие фирмы, как KPMG, переходят к модели «ИИ в первую очередь» (AI-first), они вводят обязательное обширное обучение по этике ИИ, промпт-инжинирингу (Prompt engineering) и конфиденциальности данных. Однако те самые инструменты, использованию которых они обучают персонал — платформы, способные резюмировать огромные документы и синтезировать сложные ответы — это те же самые инструменты, которые делают традиционные тесты с выбором ответов устаревшими.

Это создает проблему управления. Если сотрудник использует ИИ для ответов на вопросы об ИИ, демонстрирует ли он находчивость или нечестность? В контексте сертификационного экзамена это явно второе, однако это имитирует именно тот рабочий процесс, который сотрудникам рекомендуется внедрять в работе с клиентами: использование технологий для эффективного решения проблем.

«Гонка вооружений» в сфере внутреннего комплаенса

Способность KPMG обнаружить этот обман указывает на то, что корпоративный мониторинг развивается наряду с инструментами нарушений. «Инструменты обнаружения ИИ», используемые фирмой, вероятно, анализируют время ответа, телеметрию копирования-вставки и лингвистические паттерны, характерные для текста, созданного ИИ. Эта динамика создает внутреннюю гонку вооружений:

  1. Внедрение: Фирма внедряет производительный ИИ для работы с клиентами.
  2. Ограничение: Фирма запрещает эти инструменты для внутреннего тестирования.
  3. Обход: Сотрудники используют инструменты, чтобы обойти тесты.
  4. Обнаружение: Фирма развертывает контр-ИИ, чтобы выявить обход.

Этот цикл поглощает значительные ресурсы и ставит под сомнение эффективность текущих моделей обучения. Если профессионалы могут автоматизировать процесс тестирования, отрасли, возможно, потребуется вернуться к очным экзаменам под наблюдением или устным аттестациям, чтобы действительно подтвердить компетентность.

Общеотраслевые последствия для управления ИИ

Этот инцидент — не первый случай, когда бухгалтерские фирмы «Большой четверки» (KPMG, Deloitte, PwC и EY) сталкиваются с проверкой честности тестирования. В 2021 году KPMG Australia была оштрафована Советом по надзору за финансовой отчетностью публичных компаний США (PCAOB) на 615 000 австралийских долларов после того, как выяснилось, что более 1 100 партнеров и сотрудников обменивались ответами на внутренние учебные тесты.

Однако появление генеративного ИИ меняет характер угрозы. Скандал 2021 года был связан с человеческим сговором — социальным провалом. Скандал 2026 года связан с взаимодействием человека и ИИ — технологическим провалом. Это различие имеет решающее значение для регулирующих органов и поддержания стандартов Google E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness) в финансовом секторе. Если аудиторам нельзя доверять проверку собственных знаний без помощи алгоритмов, их способность проводить аудит сложных корпоративных данных становится предметом беспокойства для инвесторов и регуляторов.

Чтобы понять этот сдвиг, мы можем сравнить механику традиционного мошенничества на экзаменах с новой волной нарушений с использованием ИИ.

Сравнение: Традиционный обман против обмана с помощью ИИ в профессиональных услугах

В следующей таблице показано, как меняется ландшафт профессиональных нарушений в связи с доступностью инструментов генеративного ИИ.

Характеристика Традиционный обман Обман с помощью ИИ
Основной метод Ответы передаются по почте/чату, сговор с коллегами Загрузка вопросов/руководств в LLM
Скорость выполнения Медленно (требует координации с другими) Мгновенно (генерация в реальном времени)
Сложность обнаружения Средняя (сопоставление идентичных ответов) Высокая (ИИ генерирует уникальные формулировки)
Социальное требование Требуется сеть желающих участников Одиночная деятельность (сообщники не нужны)
Проблема управления Культурная (давление со стороны сверстников) Технологическая (блокировка внешних инструментов)
Типичная защита «Все так делали» «Я использовал доступные мне инструменты»

Будущее профессиональной сертификации

Штраф в размере 10 000 австралийских долларов, наложенный на партнера KPMG, значим не столько своим финансовым воздействием на высокооплачиваемого специалиста, сколько созданным прецедентом. Он устанавливает, что неправомерное использование ИИ в рамках внутреннего комплаенса является существенным нарушением профессиональной этики, сопоставимым с плагиатом или фальсификацией данных.

По мере того как мы вступаем в 2026 год, становится очевидным, что «система доверия» для дистанционного цифрового обучения рушится под весом возможностей генеративного ИИ. Для бухгалтерской отрасли, которая в значительной степени опирается на восприятие строгих стандартов и абсолютной честности, решением может стать не более совершенное программное обеспечение для обнаружения, а фундаментальный пересмотр способов измерения экспертности.

До тех пор фирмы, подобные KPMG, будут продолжать балансировать на грани: агрессивно продвигать внедрение ИИ своим клиентам, строго контролируя его использование в своих собственных рядах. Урок для всей индустрии ИИ ясен — когда вы создаете инструменты, которые могут выполнять чью угодно работу, вы должны быть готовы к тому, что они будут выполнять и ваше обучение.

Рекомендуемые