
Na corrida para dominar o cenário da inteligência artificial (artificial intelligence), as empresas estão batendo em uma parede que nenhum algoritmo pode resolver: o medo humano. Apesar de bilhões de dólares investidos em infraestrutura de inteligência artificial generativa (generative AI), um novo relatório destaca um paradoxo crítico — enquanto os funcionários adotam ferramentas de IA pessoalmente em ritmo acelerado, continuam profundamente desconfiados de mandatos corporativos.
Carolyn Dewar, sócia sênior da McKinsey e coautora de CEO Excellence, argumenta que a paralisação da IA empresarial não é uma falha técnica, mas uma crise de liderança. Falando sobre o estado atual da adoção de IA em fevereiro de 2026, Dewar enfatiza que a narrativa de "eficiência" tornou-se sinônimo de "cortes de empregos" na mente dos trabalhadores, criando uma cultura de silêncio que sufoca a inovação genuína.
O cerne da questão está no "déficit de confiança". Os funcionários estão cada vez mais usando "IA sombra" (Shadow AI) — ferramentas não autorizadas usadas para concluir tarefas sem o conhecimento do empregador — porque temem que a transparência leve à automação de seus papéis. Essa desconexão ameaça tornar inúteis grandes investimentos corporativos em IA, já que os dados e fluxos de trabalho necessários para treinar modelos empresariais permanecem escondidos nas sombras.
Dados recentes sugerem que, embora mais de 90% dos trabalhadores do conhecimento estejam familiarizados com inteligência artificial generativa (generative AI), uma parcela significativa oculta ativamente seu uso da gerência. Esse comportamento decorre de uma postura defensiva. Quando a comunicação da liderança se concentra exclusivamente em ganhos de produtividade e redução de custos, a força de trabalho interpreta "transformação" como um prelúdio para demissões.
Dewar alerta que esse medo congela justamente a experimentação que as empresas precisam. "A IA não decidirá o futuro; os líderes decidirão", ela afirma. A tecnologia em si é neutra, mas a intenção por trás de sua implantação é o que direciona o sentimento dos funcionários. Se a força de trabalho acreditar que a IA está sendo "feita para" eles em vez de "feita com" eles, a adoção estagna, e o retorno sobre o investimento cria um abismo entre as expectativas executivas e a realidade operacional.
A narrativa predominante em 2026 é que a IA inevitavelmente remodelará indústrias, mas Dewar postula que a forma desse futuro depende inteiramente das decisões humanas tomadas hoje. Os líderes que terão sucesso não serão os que têm o melhor código, mas aqueles que conseguem reconstruir a segurança psicológica (psychological safety) necessária para que suas equipes experimentem sem medo da obsolescência.
Dewar defende uma mudança no estilo de liderança — afastando-se do modelo tradicional de "comando e controle" (command and control), que é lento demais para a era da IA, rumo a liderar por "contexto". Nesse modelo, os líderes definem as diretrizes e os valores, mas confiam em equipes distribuídas para inovar dentro desses limites. Essa abordagem exige um nível de vulnerabilidade e transparência que muitos executivos consideram desconfortável.
Para fechar a lacuna de confiança, os comportamentos de liderança devem evoluir. A tabela a seguir descreve a mudança necessária na filosofia de gestão identificada por especialistas do setor:
| Liderança Tradicional | Liderança na Era da IA | Impacto na Adoção |
|---|---|---|
| Foco em monitoramento e conformidade | Foco em capacitação e diretrizes | Incentiva experimentação em vez de segredo |
| Eficiência como métrica principal | Criação de valor e potencialização (augmentation) como métricas principais | Reduz o medo de substituição imediata de empregos |
| Tomada de decisão de cima para baixo | Tomada de decisão distribuída com contexto claro | Acelera o ciclo de feedback para ferramentas de IA |
| Mentalidade de "Não falhar" | Segurança psicológica (psychological safety) para falhar e aprender | Destrava casos de uso inovadores para inteligência artificial generativa (generative AI) |
| Retenção de informações | Transparência radical | Constrói a confiança necessária para o compartilhamento de dados |
Um ponto crítico de falha nas estratégias atuais de IA é a negligência da gerência intermediária. Frequentemente chamada de "meio congelado", esses gerentes são, na verdade, a alma da organização. Eles estão apertados entre mandatos executivos para integração de IA e as ansiedades de seus subordinados diretos.
Dewar e seus colegas observam que os gerentes intermediários são frequentemente encarregados de "implementar" ferramentas de IA sem receber a autonomia para redefinir funções. Para ter sucesso, as organizações devem empoderar esses gerentes para atuarem como arquitetos do novo fluxo de trabalho. Eles precisam da autoridade para dizer: "Esta ferramenta de IA lida com 40% da rotina, então agora minha equipe pode focar em interações de alto contato com clientes", em vez de simplesmente ser orientados a reduzir o quadro de pessoal por uma porcentagem equivalente.
Quando os gerentes intermediários são apoiados, tornam-se os campeões da mudança. Quando são ignorados ou ameaçados, tornam-se os bloqueadores mais eficazes da inovação, protegendo suas equipes ao atrasar a implementação.
O caminho a seguir requer uma abordagem centrada no humano para a estratégia de IA. Isso não é apenas uma habilidade “macia” adicional, mas uma necessidade estratégica dura. Empresas que conseguiram escalar a IA além da fase piloto compartilham uma característica comum: investem tanto em gestão de mudanças (change management) e requalificação (upskilling) quanto investem na própria tecnologia.
Dewar sugere que os líderes devem articular uma visão em que a IA é uma ferramenta de potencialização (augmentation) e não de substituição. Isso envolve conversas honestas sobre como os papéis irão evoluir. Significa garantir que os ganhos de eficiência sejam reinvestidos em crescimento — novos produtos, melhor atendimento ao cliente e expansão — em vez de simplesmente fluírem para a linha de fundo como redução de custos.
Em última análise, a tecnologia está pronta, mas a força de trabalho espera um sinal de que é seguro usá-la. Até que os líderes possam prometer de forma crível que a IA é parceira no sucesso dos seus funcionários, todo o potencial dessas poderosas ferramentas permanecerá trancado atrás de um muro de medo.