
En un acontecimiento que resalta la compleja relación entre el gobierno corporativo y la tecnología emergente, un socio sénior de KPMG Australia ha sido multado con 10.000 dólares australianos (aproximadamente 7.000 dólares estadounidenses) por utilizar inteligencia artificial (Artificial Intelligence) para hacer trampas en un examen de formación interna. El incidente, confirmado por la firma el lunes 16 de febrero de 2026, sirve como una cruda ilustración de la "paradoja de la adopción" (adoption paradox) a la que se enfrenta la industria de servicios profesionales: mientras las firmas se apresuran a integrar la IA en sus flujos de trabajo, luchan por supervisar su uso al verificar la competencia de su fuerza laboral.
Para los observadores de Creati.ai, este evento no es simplemente un caso de mala conducta individual, sino una señal de un cambio más amplio en la forma en que se evalúa el conocimiento profesional en la era algorítmica. El módulo de formación en cuestión estaba, irónicamente, diseñado para enseñar al personal sobre el uso ético y responsable de la inteligencia artificial.
El incumplimiento ocurrió cuando el socio, cuya identidad no ha sido revelada y que es un auditor de empresas registrado, intentó eludir los requisitos cognitivos de una evaluación interna obligatoria. Según informes del Australian Financial Review, el socio cargó el manual de referencia del curso de formación en una herramienta de IA generativa (Generative AI). La IA generó entonces las respuestas para las preguntas del examen basadas en el material cargado, lo que permitió al socio completar la prueba sin interactuar con el contenido de la manera prevista.
KPMG Australia identificó la mala conducta utilizando sus propias herramientas internas de detección de IA, que señalaron la anomalía en los patrones de entrega. Esto crea una narrativa recursiva única de 2026: una firma de auditoría que utiliza la IA para atrapar a un auditor que utiliza la IA para hacer trampas en un examen de IA.
Las consecuencias fueron rápidas, pero también reflejan el intento de la firma por navegar en un nuevo panorama disciplinario:
Si bien la antigüedad del socio ha acaparado los titulares, no actuaba de forma aislada. KPMG Australia reveló que desde el inicio del año financiero en julio, un total de 28 miembros del personal han sido sorprendidos utilizando herramientas de IA generativa para hacer trampas en evaluaciones internas. Las otras 27 personas fueron identificadas como de nivel de gerente o inferior.
Andrew Yates, CEO de KPMG Australia, abordó la situación con una sincera admisión de las dificultades a las que se enfrentan las grandes organizaciones. "Como la mayoría de las organizaciones, hemos estado lidiando con el papel y el uso de la IA en lo que respecta a la formación y las pruebas internas", declaró Yates. "Es algo muy difícil de controlar dada la rapidez con la que la sociedad la ha adoptado".
Esta ola de "atajos tecnológicos" sugiere que la facilidad de acceso a potentes modelos de lenguaje de gran tamaño (Large Language Models, LLM) está erosionando la barrera de entrada para la deshonestidad académica y profesional. A diferencia de las trampas tradicionales, que a menudo requerían colusión o notas escritas previamente, las trampas facilitadas por la IA pueden realizarse de forma instantánea y a menudo en solitario, lo que las convierte en un atajo tentador para profesionales ocupados bajo presión para cumplir con las cuotas de cumplimiento.
La ironía central de este evento radica en el tema en cuestión. A medida que firmas como KPMG pivotan para convertirse en organizaciones "centradas en la IA" (AI-first), están exigiendo una formación extensa sobre ética de la IA, ingeniería de prompts (prompt engineering) y privacidad de datos. Sin embargo, las mismas herramientas para las que están capacitando al personal —plataformas capaces de resumir documentos extensos y sintetizar respuestas complejas— son las mismas herramientas que están dejando obsoletas las evaluaciones tradicionales de opción múltiple.
Esto crea un desafío de gobernanza. Si un empleado utiliza una IA para responder preguntas sobre la IA, ¿está demostrando ingenio o deshonestidad? En el contexto de un examen de certificación, es claramente lo segundo, sin embargo, imita exactamente el flujo de trabajo que se anima a los empleados a adoptar en el trabajo de cara al cliente: aprovechar la tecnología para resolver problemas de manera eficiente.
La capacidad de KPMG para detectar estas trampas indica que el monitoreo corporativo está evolucionando junto con las herramientas de mala conducta. Las "herramientas de detección de IA" de la firma probablemente analizan los tiempos de respuesta, la telemetría de copiar y pegar y los patrones lingüísticos característicos del texto generado por IA. Esta dinámica establece una carrera armamentista interna:
Este ciclo consume recursos significativos y plantea dudas sobre la eficacia de los modelos de formación actuales. Si los profesionales pueden automatizar el proceso de evaluación, la industria podría necesitar volver a los exámenes presenciales supervisados o a las evaluaciones orales para verificar verdaderamente la competencia.
Este incidente no es la primera vez que las cuatro grandes firmas de contabilidad (Big Four: KPMG, Deloitte, PwC y EY) se enfrentan al escrutinio sobre la integridad de las pruebas. En 2021, KPMG Australia fue multada con 615.000 dólares australianos por la Junta de Supervisión de Contabilidad de Empresas Públicas de EE. UU. (PCAOB) tras descubrirse que más de 1.100 socios y personal habían compartido respuestas para las pruebas de formación interna.
Sin embargo, la introducción de la IA generativa cambia la naturaleza de la amenaza. El escándalo de 2021 involucró colusión humana, un fallo social. El escándalo de 2026 involucra la interacción humano-IA, un fallo tecnológico. Esta distinción es fundamental para los organismos reguladores y para mantener los estándares Google E-E-A-T (Experiencia, Pericia, Autoridad y Confiabilidad) en el sector financiero. Si no se puede confiar en que los auditores verifiquen su propio conocimiento sin asistencia algorítmica, su capacidad para auditar datos corporativos complejos se convierte en un punto de preocupación para los inversores y reguladores.
Para entender el cambio, podemos comparar la mecánica del fraude tradicional en los exámenes frente a la nueva ola de infracciones asistidas por IA.
La siguiente tabla resume cómo el panorama de la mala conducta profesional está cambiando debido a la disponibilidad de herramientas de IA generativa.
| Característica | Trampas tradicionales | Trampas asistidas por IA |
|---|---|---|
| Método principal | Claves de respuestas compartidas por correo/chat, colusión entre pares | Carga de preguntas/manuales en LLMs |
| Velocidad de ejecución | Lenta (requiere coordinación con otros) | Instantánea (generación en tiempo real) |
| Complejidad de detección | Moderada (coincidencia de patrones de respuestas idénticas) | Alta (la IA genera frases únicas por usuario) |
| Requisito social | Requiere una red de participantes dispuestos | Actividad solitaria (no se necesitan cómplices) |
| Desafío de gobernanza | Cultural (abordar la presión de grupo) | Tecnológico (bloqueo de herramientas externas) |
| Defensa típica | "Todo el mundo lo hacía" | "Estaba usando las herramientas a mi disposición" |
La multa de 10.000 dólares australianos impuesta al socio de KPMG es significativa no por su impacto financiero en una persona con altos ingresos, sino por el precedente que sienta. Establece que el uso indebido de la IA en el cumplimiento interno es un incumplimiento material de la ética profesional, comparable al plagio o la fabricación de datos.
A medida que nos adentramos más en 2026, es evidente que el "sistema de honor" para la formación digital remota se está colapsando bajo el peso de las capacidades de la IA generativa. Para la industria de la contabilidad, que depende en gran medida de la percepción de estándares rigurosos y una integridad absoluta, la solución puede no ser un mejor software de detección, sino un rediseño fundamental de cómo se mide la pericia.
Hasta entonces, firmas como KPMG continuarán caminando por una línea delgada: promoviendo agresivamente la adopción de la IA entre sus clientes mientras vigilan estrictamente su uso entre sus propias filas. La lección para la industria de la IA en general es clara: cuando construyes herramientas que pueden hacer el trabajo de cualquier persona, debes estar preparado para que también hagan tu formación.