Existe um piloto comercial que não consegue voar sem piloto automático. Sabe o procedimento na teoria. Mas quando o sistema falha, a resposta demora, os reflexos lentos, o corpo sem memória muscular para o que a cabeça sabe. Isso já tem nome: automation complacency. E é o precedente mais bem documentado do que está acontecendo agora, em larga escala, nos escritórios corporativos.
Conforme ferramentas de IA se tornam mais capazes e mais presentes no trabalho, pesquisadores de psicologia cognitiva, comportamento organizacional e neurociência estão documentando um efeito colateral que anda invisível nas conversas sobre produtividade: quando delegamos tarefas cognitivas para sistemas automatizados com frequência suficiente, a capacidade de realizá-las de forma autônoma começa a deteriorar.
Esse fenômeno tem nome técnico: erosão de habilidade por dependência de IA — um subconjunto do que a literatura chama de cognitive offloading, o processo de transferir esforço mental para ferramentas externas. Em doses certas, é uma estratégia inteligente. Em excesso, é um passivo silencioso que a maioria das organizações ainda não está medindo.
Este artigo é sobre o que está em risco, como reconhecer, e o que fazer a respeito.
O que a pesquisa está encontrando
Em 2025, a publicação científica Advance Social Science Archive Journal sintetizou o estado da pesquisa: o uso excessivo de ferramentas de IA pode diminuir a capacidade das pessoas de se engajar em pensamento profundo e análise crítica, à medida que passam a delegar tarefas cognitivas às máquinas. A erosão não é imediata. É gradual. E por ser gradual, raramente é percebida por quem está passando por ela.
Um estudo com 200 participantes publicado em 2025 encontrou algo direto: embora o desempenho nas tarefas melhorasse com assistência de IA, a consciência metacognitiva e o engajamento crítico diminíram. Pessoas assistidas por IA entregavam mais rápido, mas pensavam menos sobre o que estavam entregando. Os autores chamaram isso de “extensão cognitiva ao custo de erosão cognitiva”: o ganho de performance vinha com perda de profundidade.
O pesquisador Markus Gerlich, da Universidade de Negócios e Liderança, publicou em 2025 na revista Computers in Human Behavior que o aumento na dependência de ferramentas de IA está associado a redução nas habilidades de pensamento crítico, mediada pelo cognitive offloading. O mecanismo é simples: o que você não pratica, você perde. Habilidades cognitivas funcionam como músculos.
A Springer, em dezembro de 2025, publicou um capítulo com título direto: AI Competency Erosion: Understanding Expertise Decay. A análise encontrou “transições de falsa expertise”: situações onde competência aparente mascara gaps de conhecimento subjacentes. O profissional parece capaz porque a ferramenta entrega. Mas retire a ferramenta e o gap aparece.
“A erosão de competências devido à IA não é apenas uma preocupação teórica. É um problema tangível afetando organizações hoje. Evidências contemporâneas da prática médica, da profissão jurídica e de pesquisas cognitivas mais amplas validam declínios mensuráveis de competência dentro de meses após a adoção de IA.”
Yadav, P.S. — AI Competency Erosion: Understanding Expertise Decay. Springer, 2025
O exemplo dos pilotos — e o que ele diz sobre executivos
O caso mais bem documentado de erosão por automação não vem do mundo corporativo. Vem da aviação.
À medida que os sistemas de piloto automático melhoraram, a segurança dos voos aumentou significativamente. Mas um efeito paralelo foi documentado: pilotos que voavam com sistemas altamente automatizados passaram a ter maiores dificuldades para retomar o controle manual em situações de emergência. A proficiência em voo manual deteriorou pelo simples fato de não ser praticada com frequência suficiente.
Pesquisadores da Universidade de Vermont, liderados por Mark Bouton, estudaram o mecanismo subjacente. A conclusão foi clara: manutenção de habilidade não funciona por apagamento do padrão anterior. Funciona por inibição ativa. E essa inibição é frágil, especialmente em contextos novos ou sob pressão. Em outras palavras: a habilidade pode parecer preservada no dia a dia, mas falhar exatamente quando mais é necessária.
O paralelo corporativo é direto. Um analista que usa IA para gerar toda a análise financeira pode parecer completamente funcional — até que a ferramenta falhe, o contexto seja incomum, ou seja necessário explicar a um conselho como chegou àquela conclusão. A competência aparente estava na ferramenta, não na pessoa. E ninguém tinha percebido.
O paradoxo da automatização: A IA eleva a performance em situações de rotina. Mas pode comprometer a capacidade de resposta em situações de exceção, crise ou contexto incomum — exatamente os momentos em que julgamento humano autônomo é mais necessário.
O que está em risco no ambiente corporativo
A erosão não afeta tudo igualmente. Ela é mais pronunciada nas habilidades que requerem prática frequente para se manter. Nas empresas, as que estão mais em risco:
Pensamento crítico e análise independente
O profissional que usa IA para gerar análises e sínteses com frequência progressivamente pratica menos o processo de estruturar o raciocínio do zero. A pesquisa é consistente: a delegação frequente de tarefas analíticas à IA está correlacionada com redução na capacidade de análise crítica autônoma. O output chega mais rápido, mas o músculo que o produzia fica menos exercitado.
Memória de trabalho e retenção de contexto
Sparrow e colaboradores estabeleceram que a expectativa de acesso futuro a informação digital reduz significativamente a retenção dessa informação. Quando o profissional sabe que a IA vai lembrar, ele para de lembrar. Em reuniões, negociações e conversas onde memória de contexto é vantagem competitiva, esse efeito tem consequências reais.
Resolução de problemas em território desconhecido
Modelos de IA funcionam com base em padrões históricos. Quando o problema é genuinamente novo, o profissional que desenvolveu o hábito de começar pela IA vai receber um output de qualidade questionável — e possivelmente não vai ter o repertório para perceber isso.
Escrita e clareza de raciocínio
O Relatório New Future of Work 2024 da Microsoft advertiu que ferramentas de IA generativa podem “homogeneizar outputs e potencialmente permitir que habilidades cognitivas se deteriorem”. Profissionais que delegam sistematicamente a escrita à IA praticam menos o processo de transformar pensamento em linguagem — que é também um processo de clarificar o próprio pensamento.
Autoconfiança e autonomia decisória
Esse é o efeito menos óbvio e talvez o mais significativo. O estudo de 200 participantes de 2025 encontrou, além da queda em pensamento crítico, declínio na autoeficácia: a confiança na própria capacidade de resolver problemas. O profissional começa a depender da validação da ferramenta para se sentir seguro em suas conclusões.
A ilusão de competência: o risco que as organizações não estão medindo
O conceito de “ilusão de competência” aparece em múltiplos estudos de 2025 como um dos riscos mais sérios da integração de IA no trabalho: a percepção enganosa de domínio criada por outputs gerados pela IA que mascaram déficits cognitivos subjacentes.
Na prática: o gerente entrega análises impecáveis. O diretor produz apresentações sofisticadas. O consultor gera relatórios abrangentes. Tudo parece funcionar. Mas se você perguntar como chegou àquela conclusão, ou pedir para resolver o problema sem a ferramenta, ou colocá-lo numa situação que a IA não soube mapear, o gap aparece.
Essa ilusão é particularmente problemática em processos de avaliação de performance, promoções e sucessão. As organizações estão promovendo pessoas com base em outputs que não refletem necessariamente as capacidades que esperam estar promovendo. E descobrirão isso no pior momento possível: numa crise, numa negociação crítica, numa decisão que não tem precedente no dataset de nenhuma IA.
A pesquisa da Springer encontrou que esse declínio pode ser mensurável em meses após a adoção intensiva de IA, não em anos. O intervalo é mais curto do que a maioria das organizações imagina.
“As organizações frequentemente perseguem ganhos de produtividade com IA sem perguntar quais capacidades de longo prazo estão abrindo mão. É fácil automatizar fluxos de trabalho e cortar orçamentos de treinamento. Mas o que acontece quando a IA falha, o modelo é descontinuado, ou o contexto é incomum?”
MITRIX Technology — The Skill Erosion Scare: Are We Losing Our Edge to AI?, 2025
O shadow AI: o risco que as empresas ainda não mapearam
Existe uma camada adicional que torna o problema mais complexo: o shadow AI. Segundo a Microsoft, 71% dos trabalhadores do Reino Unido usam ferramentas de IA não aprovadas no trabalho, sendo que mais da metade o faz semanalmente. O Brasil e outros mercados emergentes seguem padrão similar.
Isso significa que profissionais estão delegando tarefas cognitivas a ferramentas que a organização não auditou, não treinou e não sabe que estão sendo usadas. A erosão está acontecendo fora do radar de qualquer política corporativa de IA.
Para RH e lideranças de pessoas, isso cria um problema de governança inédito: como avaliar a capacidade real de um profissional quando parte do trabalho foi produzida por ferramentas que a empresa não sabe que existem na rotina dessa pessoa?
A resposta não é proibir. Proibição sem educação apenas empurra o uso para a clandestinidade. A resposta é construir cultura de uso consciente, com clareza sobre o que deve e o que não deve ser delegado, e com práticas que mantenham as capacidades humanas exercitadas mesmo enquanto as ferramentas são utilizadas.
Como se proteger: uso consciente sem abrir mão das ferramentas
A conclusão da pesquisa não é que IA deva ser evitada. É que a integração precisa ser intencional, não passiva. As calculadoras não tornaram as pessoas piores em matemática. Mas liberaram capacidade mental para problemas mais complexos. A diferença está em como a ferramenta é posicionada: como extensão de capacidade ou como substituta de capacidade.
Use IA como input, nunca como output final sem julgamento
A distinção mais importante: o output da IA é o começo do seu trabalho, não o fim. Antes de usar qualquer resultado, passe por ele ativamente — questione a lógica, identifique o que falta, avalie se o enquadramento faz sentido para o contexto específico. Esse processo de revisão crítica é o que mantém o músculo analítico exercitado.
Preservar zonas de prática sem IA
Deliberadamente. Um analista pode decidir que reuniões com clientes acontecem sem preparação via IA. Um diretor pode decidir que a primeira versão de qualquer memo estratégico é escrita por ele, antes de qualquer auxílio. Um gestor pode conduzir conversas de feedback sem roteiro gerado. Essas “zonas de prática intencional” não precisam ser a maioria do trabalho. Mas precisam existir.
Exercitar o raciocínio de volta ao problema, não à ferramenta
Quando a IA apresenta uma análise, o profissional deveria ser capaz de reconstruir o raciocínio de forma independente, ao menos em linhas gerais. Se não consegue, o problema não é de tempo. É de que a habilidade está se atrofiando. A pergunta “eu conseguiria chegar a isso sem a ferramenta?” é um bom termômetro de onde está o nível de dependência.
Organizações: não confundam velocidade com capacidade
Para líderes de RH e gestores de pessoas: desempenho acelerado por IA não é evidência de capacidade instalada. Processos de avaliação que não distinguem o que vem da pessoa e o que vem da ferramenta estão promovendo ilusão de competência — criando pipelines de liderança fragilizados que só serão testados nas situações mais críticas.
O que a erosão de habilidade tem a ver com autoconhecimento
Existe uma dimensão desse fenômeno que raramente aparece nos relatórios de tecnologia: a erosão de habilidade também afeta a autoconfiança e o senso de identidade profissional.
Pesquisadores identificaram que profissionais em dependência de IA apresentam queda na autoeficácia — a crença na própria capacidade de resolver problemas. Isso tem consequência além da performance: um profissional que perdeu confiança na própria capacidade de análise vai buscar mais IA para compensar, criando um ciclo que aprofunda a dependência.
Esse ciclo se assemelha estruturalmente ao que a psicologia descreve em outros contextos de dependência: o recurso que parecia resolver o problema torna-se parte do problema. A solução de curto prazo cria a necessidade de longo prazo.
Para profissionais em posição de liderança, isso tem implicação direta na capacidade de sustentar decisões difíceis. Um líder que perdeu confiança no próprio julgamento vai delegar decisões que precisam de responsabilidade humana. Vai buscar validação onde deveria haver convicção. Vai hesitar nos momentos em que a equipe precisa de clareza.
Desenvolver e manter clareza sobre o próprio julgamento, os próprios valores e a própria capacidade analítica é, portanto, também proteção contra a erosão. Não é questão apenas técnica. É questão de saúde profissional e de identidade como liderança.
Conclusão
A IA não está tornando os profissionais piores. Está tornando mais visível o que sempre foi verdade: a qualidade do output depende da qualidade do julgamento de quem usa a ferramenta. Quando o julgamento deteriora, o output deteriora com ele — apenas de forma mais disfarçada, porque a ferramenta mantém a aparência de competência por mais tempo do que o processo real sustenta.
A erosão de habilidade é silenciosa porque o profissional ainda entrega. O problema aparece nos momentos em que a entrega não é suficiente: quando a situação é nova, quando a ferramenta falha, quando é necessário defender uma posição com argumento próprio, quando a decisão tem peso humano que nenhum modelo consegue carregar.
O antídoto não é usar menos IA. É usar com intenção: saber o que está sendo delegado, manter as habilidades que importam exercitadas, e nunca confundir o output da ferramenta com o julgamento de quem decide.
A ferramenta entrega mais rápido. Você ainda precisa saber para onde ir.
Clareza de julgamento é a capacidade que nenhuma IA substitui.
A Ethos Apex trabalha com executivos e líderes que entendem que performance sustentável começa por dentro. Quando a ferramenta amplifica quem você é, quem você é precisa estar bem construído. Psicoterapia integrativa, neurociência aplicada e hipnoterapia clínica a serviço do desenvolvimento do julgamento, da clareza e da autoconfiança que não dependem de validação externa.
Conhecer os Programas
Deixe sua reflexão
Gosto de ler o que ressoa em quem está nessa jornada.