AI News

Die Ironie der Automatisierung: KPMG-Partner wegen KI-Einsatzes beim Betrug bei einer KI-Ethikprüfung mit einer Geldstrafe belegt

In einer Entwicklung, die die komplexe Beziehung zwischen Corporate Governance und aufstrebenden Technologien unterstreicht, wurde ein Senior-Partner bei KPMG Australien zu einer Geldstrafe von 10.000 A$ (ca. 7.000 US$) verurteilt, weil er künstliche Intelligenz eingesetzt hatte, um bei einer internen Schulungsprüfung zu schummeln. Der Vorfall, der von der Kanzlei am Montag, den 16. Februar 2026, bestätigt wurde, dient als krasses Beispiel für das „Adoptionsparadoxon (adoption paradox)“, vor dem die professionelle Dienstleistungsbranche steht: Während Unternehmen eilen, generative KI (Generative AI) in ihre Arbeitsabläufe zu integrieren, haben sie Mühe, deren Einsatz bei der Überprüfung der Kompetenz ihrer Belegschaft zu kontrollieren.

Für Beobachter bei Creati.ai ist dieses Ereignis nicht nur ein Fall von individuellem Fehlverhalten, sondern ein Signal für eine breitere Verschiebung in der Art und Weise, wie professionelles Wissen im algorithmischen Zeitalter bewertet wird. Das fragliche Schulungsmodul war ironischerweise dazu gedacht, den Mitarbeitern den ethischen und verantwortungsvollen Umgang mit künstlicher Intelligenz zu vermitteln.

Der Vorfall: Wenn Werkzeuge die Regeln überlisten

Der Verstoß ereignete sich, als der namentlich nicht genannte Partner, ein registrierter Unternehmensprüfer, versuchte, die kognitiven Anforderungen einer obligatorischen internen Bewertung zu umgehen. Berichten des Australian Financial Review zufolge lud der Partner das Referenzhandbuch des Schulungskurses in ein generatives KI-Tool hoch. Die KI generierte daraufhin Antworten auf die Prüfungsfragen basierend auf dem hochgeladenen Material, was es dem Partner ermöglichte, den Test abzuschließen, ohne sich wie vorgesehen mit den Inhalten auseinanderzusetzen.

KPMG Australia identifizierte das Fehlverhalten mithilfe eigener interner KI-Erkennungstools, die die Anomalie in den Einreichungsmustern markierten. Dies schafft ein rekursives Narrativ, das typisch für das Jahr 2026 ist: Eine Wirtschaftsprüfungsgesellschaft nutzt KI, um einen Prüfer zu überführen, der KI nutzt, um bei einer KI-Prüfung zu schummeln.

Die Konsequenzen folgten prompt, spiegeln aber auch den Versuch der Kanzlei wider, sich in einer neuen Disziplinarlandschaft zurechtzufinden:

  • Finanzielle Sanktion: Gegen den Partner wurde eine Geldstrafe von 10.000 A$ verhängt.
  • Nachschulung: Die Person musste die Bewertung ohne Hilfsmittel erneut ablegen.
  • Formelle Verwarnungen: Der Partner erhielt eine Verwarnung bezüglich der berufliche Integrität.
  • Berichterstattung: Der Vorfall wurde proaktiv an die Chartered Accountants Australia and New Zealand (CA ANZ) gemeldet.

Ein weit verbreitetes Problem: 28 Mitarbeiter und steigend

Obwohl die Seniorität des Partners Schlagzeilen gemacht hat, handelte er nicht isoliert. KPMG Australien gab bekannt, dass seit Beginn des Geschäftsjahres im Juli insgesamt 28 Mitarbeiter dabei erwischt wurden, wie sie generativen KI-Tools (generative AI tools) einsetzten, um bei internen Bewertungen zu schummeln. Die anderen 27 Personen wurden auf Manager-Ebene oder darunter identifiziert.

Andrew Yates, CEO von KPMG Australien, sprach die Situation mit einem offenen Geständnis über die Schwierigkeiten an, vor denen große Organisationen stehen. „Wie die meisten Organisationen haben wir uns mit der Rolle und dem Einsatz von KI im Zusammenhang mit interner Schulung und Prüfung auseinandergesetzt“, erklärte Yates. „Es ist sehr schwer, die Kontrolle zu behalten, wenn man bedenkt, wie schnell die Gesellschaft sie angenommen hat.“

Diese Welle von „technologischen Abkürzungen“ deutet darauf hin, dass der einfache Zugang zu leistungsstarken großen Sprachmodellen (Large Language Models, LLMs) die Eintrittsbarriere für akademische und berufliche Unredlichkeit erodiert. Im Gegensatz zum traditionellen Schwindeln, das oft Absprachen oder vorbereitete Notizen erforderte, kann KI-gestütztes Schwindeln augenblicklich und oft allein durchgeführt werden, was es zu einer verlockenden Abkürzung für vielbeschäftigte Fachleute unter Druck macht, Compliance-Quoten zu erfüllen.

Das Paradoxon der unternehmensinternen KI-Schulung

Die zentrale Ironie dieses Ereignisses liegt in der Thematik. Während Unternehmen wie KPMG sich zu „KI-zuerst (AI-first)“-Organisationen wandeln, schreiben sie umfassende Schulungen zu KI-Ethik, Prompt Engineering und Datenschutz vor. Doch genau die Werkzeuge, in deren Nutzung sie ihre Mitarbeiter schulen – Plattformen, die in der Lage sind, riesige Dokumente zusammenzufassen und komplexe Antworten zu synthetisieren –, sind dieselben Werkzeuge, die traditionelle Multiple-Choice-Bewertungen obsolet machen.

Dies schafft eine Governance-Herausforderung. Wenn ein Mitarbeiter eine KI nutzt, um Fragen über KI zu beantworten, beweist er dann Einfallsreichtum oder Unredlichkeit? Im Kontext einer Zertifizierungsprüfung ist es eindeutig Letzteres, doch es ahmt genau den Arbeitsablauf nach, zu dem Mitarbeiter in kundenorientierten Projekten ermutigt werden: Technologie nutzen, um Probleme effizient zu lösen.

Das „Wettrüsten“ der internen Compliance

Die Fähigkeit von KPMG, diesen Betrug zu erkennen, deutet darauf hin, dass sich die Unternehmensüberwachung parallel zu den Werkzeugen des Fehlverhaltens entwickelt. Die „KI-Erkennungstools“ der Kanzlei analysieren wahrscheinlich Antwortzeiten, Copy-Paste-Telemetrie und linguistische Muster, die charakteristisch für KI-generierte Texte sind. Diese Dynamik etabliert ein internes Wettrüsten:

  1. Einsatz: Die Kanzlei führt Produktivitäts-KI für die Mandantenarbeit ein.
  2. Beschränkung: Die Kanzlei verbietet diese Werkzeuge für interne Tests.
  3. Umgehung: Mitarbeiter nutzen die Werkzeuge, um die Tests zu umgehen.
  4. Erkennung: Die Kanzlei setzt Gegen-KI ein, um die Umgehung zu markieren.

Dieser Zyklus verbraucht erhebliche Ressourcen und wirft Fragen zur Wirksamkeit aktueller Schulungsmodelle auf. Wenn Fachleute den Testprozess automatisieren können, muss die Branche möglicherweise zu beaufsichtigten Präsenzprüfungen oder mündlichen Bewertungen zurückkehren, um die Kompetenz wirklich zu verifizieren.

Branchenweite Auswirkungen auf die KI-Governance

Dieser Vorfall ist nicht das erste Mal, dass die Big-Four-Wirtschaftsprüfungsgesellschaften (KPMG, Deloitte, PwC und EY) wegen der Integrität von Tests unter Beobachtung stehen. Im Jahr 2021 wurde KPMG Australien vom US Public Company Accounting Oversight Board (PCAOB) mit einer Geldstrafe von 615.000 A$ belegt, nachdem entdeckt wurde, dass über 1.100 Partner und Mitarbeiter Antworten für interne Schulungstests geteilt hatten.

Die Einführung generativer KI verändert jedoch die Natur der Bedrohung. Der Skandal von 2021 beinhaltete menschliche Absprachen – ein soziales Versagen. Der Skandal von 2026 beinhaltet eine Mensch-KI-Interaktion – ein technisches Versagen. Diese Unterscheidung ist entscheidend für Aufsichtsbehörden und die Aufrechterhaltung der Google E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness)-Standards im Finanzsektor. Wenn Prüfern nicht vertraut werden kann, ihr eigenes Wissen ohne algorithmische Unterstützung zu verifizieren, wird ihre Fähigkeit, komplexe Unternehmensdaten zu prüfen, zu einem Anliegen für Investoren und Regulierungsbehörden.

Um den Wandel zu verstehen, können wir die Mechanik des traditionellen Prüfungsbetrugs mit der neuen Welle von KI-gestützten Verstößen vergleichen.

Vergleich: Traditionelles vs. KI-gestütztes Schwindeln in professionellen Dienstleistungen

Die folgende Tabelle skizziert, wie sich die Landschaft des beruflichen Fehlverhaltens durch die Verfügbarkeit generativer KI-Tools verschiebt.

Merkmal Traditionelles Schwindeln KI-gestütztes Schwindeln
Primäre Methode Antwortschlüssel geteilt über E-Mail/Chat, Absprachen unter Kollegen Hochladen von Fragen/Handbüchern in LLMs
Geschwindigkeit der Ausführung Langsam (erfordert Koordination mit anderen) Augenblicklich (Echtzeit-Generierung)
Erkennungskomplexität Moderat (Musterabgleich identischer Antworten) Hoch (KI generiert einzigartige Formulierungen pro Benutzer)
Soziale Anforderung Erfordert ein Netzwerk von willigen Teilnehmern Einsame Aktivität (keine Komplizen erforderlich)
Governance-Herausforderung Kulturell (Adressierung von Gruppendruck) Technologisch (Blockieren externer Tools)
Typische Verteidigung „Alle haben es getan“ „Ich habe die mir zur Verfügung stehenden Werkzeuge genutzt“

Die Zukunft der beruflichen Zertifizierung

Die gegen den KPMG-Partner verhängte Geldstrafe von 10.000 A$ ist nicht wegen ihrer finanziellen Auswirkungen auf eine einkommensstarke Einzelperson von Bedeutung, sondern wegen des Präzedenzfalls, den sie schafft. Sie legt fest, dass der Missbrauch von KI in der internen Compliance ein wesentlicher Verstoß gegen die Berufsethik ist, vergleichbar mit Plagiaten oder Datenfälschung.

Während wir uns tiefer in das Jahr 2026 bewegen, wird deutlich, dass das „Ehrensystem“ für digitale Fernschulungen unter dem Gewicht der Fähigkeiten generativer KI zusammenbricht. Für die Wirtschaftsprüfungsbranche, die stark auf der Wahrnehmung strenger Standards und absoluter Integrität beruht, besteht die Lösung möglicherweise nicht in besserer Erkennungssoftware, sondern in einer grundlegenden Neugestaltung der Art und Weise, wie Fachwissen gemessen wird.

Bis dahin werden Firmen wie KPMG weiterhin einen schmalen Grat wandern: Die Einführung von KI bei ihren Mandanten aggressiv voranzutreiben, während sie deren Einsatz in den eigenen Reihen streng kontrollieren. Die Lektion für die breitere KI-Branche ist klar: Wenn man Werkzeuge baut, die den Job von jedem erledigen können, muss man darauf vorbereitet sein, dass sie auch die Schulung übernehmen.

Ausgewählt