A IA vai roubar seu emprego?
A resposta honesta é:
ainda não sabemos
Um novo relatório da Anthropic mede, com rigor inédito, o quanto a IA realmente usa em contextos profissionais. A distância para o que ela poderia fazer é enorme — e isso nos diz algo importante sobre tecnologia, organizações e trabalho.
Em março de 2026, a Anthropic — empresa criadora do modelo de linguagem Claude — publicou um relatório chamado Labor Market Impacts of AI: A New Measure and Early Evidence. O texto propõe uma métrica nova, denominada exposição observada, para medir o quanto a IA generativa está, de fato, penetrando no trabalho cotidiano. O resultado surpreende: mesmo nas ocupações mais expostas tecnicamente, o uso real da IA ainda está muito longe do que seria teoricamente possível.
Esse gap entre capacidade e adoção é o ponto de partida para uma reflexão mais profunda. Por que a tecnologia avança rápido e as transformações no trabalho vêm devagar? A resposta não está nos modelos, mas em como organizações, mercados e pessoas realmente funcionam.
01 —O paradoxo que Solow já havia visto
Em 1987, o economista Robert Solow escreveu uma frase que se tornou clássica: "Você pode ver a era dos computadores em todo lugar, menos nas estatísticas de produtividade." O computador estava transformando escritórios, bancos, indústrias — mas os números macroeconômicos de produtividade não se moviam.
O relatório da Anthropic repete esse paradoxo em escala menor, mas com clareza desconcertante. A empresa tem acesso a dados reais de uso de seu próprio modelo em contextos profissionais, e o que encontrou é uma lacuna de 61 pontos percentuais entre o que a IA pode fazer e o que ela efetivamente faz na área de Computação e Matemática. Para quem acompanha a narrativa de que "a IA vai transformar tudo em poucos anos", esse dado merece pausa.
Tecnologias de propósito geral só produzem efeitos sistêmicos depois que co-invenções complementares se desenvolvem: novos processos, novas habilidades, novos arranjos institucionais.
— Bresnahan & Trajtenberg (1995), revisitados à luz de 2026A eletricidade chegou às fábricas americanas no final do século XIX. Só nos anos 1920 as fábricas foram redesenhadas para aproveitá-la de verdade, com o motor elétrico individual em cada máquina substituindo os sistemas de correias do vapor. A IA generativa é uma tecnologia de propósito geral. E tecnologias de propósito geral exigem co-invenções complementares antes de produzir retornos sistêmicos — processos redesenhados, pessoas requalificadas, regulações adaptadas, infraestrutura construída.
O relatório reconhece isso de passagem, ao listar "adoção gradual, restrições legais e etapas de verificação humana" como barreiras. Mas trata esses fatores como fricções temporárias que o progresso técnico eliminará. Essa suposição precisa ser contestada.
02 —O problema de quem sabe o que a IA realmente faz
Quando você considera comprar um carro usado, está em desvantagem: o vendedor sabe o histórico do veículo, você não. O economista George Akerlof chamou isso de mercado de limões — e mostrou que a assimetria de informação pode paralisar mercados inteiros.
Com a IA nas organizações, a lógica é parecida. As empresas que desenvolvem modelos de linguagem conhecem suas limitações com profundidade: as alucinações, os erros em raciocínio de múltiplos passos, o comportamento errático fora dos padrões de treinamento. O gestor que decide adotar IA em seu departamento de RH, jurídico ou financeiro tem acesso a uma fração desse conhecimento.
Há ainda o problema do que acontece depois da adoção. Uma vez que a IA é integrada ao fluxo de trabalho, surge o risco de supervisão insuficiente. O próprio relatório registra um dado revelador: a tarefa de autorizar recarga de receitas e fornecer informações de prescrição a farmácias é classificada como tecnicamente viável para LLMs — mas não aparece nos dados de uso real do Claude. Não é por falta de capacidade técnica. É porque médicos, farmacêuticos e a regulação sanitária não abrem mão da responsabilização humana nesse processo. E fazem bem.
Esse dado não é uma falha da métrica. É uma lição sobre o que move a adoção tecnológica na vida real.
03 —Organizações não adotam tecnologias, elas as reconstroem
Chris Argyris e Donald Schön distinguiram dois tipos de aprendizagem organizacional. Na aprendizagem de circuito simples, a organização corrige erros dentro dos parâmetros existentes — como um termostato que regula a temperatura. Na aprendizagem de circuito duplo, ela questiona os próprios parâmetros: por que estamos fazendo isso assim? Que objetivos estamos realmente perseguindo?
Integrar IA generativa de forma efetiva em fluxos de trabalho organizacionais exige quase sempre aprendizagem de circuito duplo. Não basta dar ao analista um assistente de IA e pedir que ele continue fazendo o mesmo trabalho mais rápido. É preciso repensar quais tarefas ainda fazem sentido, como os processos precisam ser redesenhados, quais responsabilidades devem ser redistribuídas — e quem fica responsável quando algo dá errado.
Cohen e Levinthal introduziram o conceito de capacidade absortiva: a habilidade de uma organização de reconhecer, assimilar e aplicar conhecimento novo. Essa capacidade depende fortemente do conhecimento que a organização já tem. Empresas com forte base técnica em computação absorvem IA com custos menores. Empresas sem essa base precisam construir antes de colher — e isso leva tempo, investimento e tolerância ao erro.
Isso explica, em parte, por que o relatório encontra os trabalhadores mais expostos concentrados em ocupações de alta qualificação técnica: programadores, analistas financeiros, representantes de atendimento ao cliente de nível avançado. Esses profissionais e as organizações onde trabalham têm capacidade absortiva para lidar com a tecnologia. Os demais não estão imunes à mudança — estão numa fase diferente da curva de aprendizagem.
04 —O que é essencialmente humano não é apenas difícil de automatizar — é valioso por ser humano
Há um argumento que o relatório não faz, mas que é o mais importante para entender os limites da metáfora de "cobertura de tarefas". Em muitas ocupações, a dimensão humana não é o meio pelo qual o trabalho é feito — ela é o produto final em si.
- Um consultor estratégico não vende análise. Vende confiança, responsabilização e interpretação situada em um contexto organizacional específico que ele conhece por dentro.
- Um professor não transfere conteúdo. Cria pertencimento, orienta desenvolvimento, detecta o que não está na superfície do aprendizado.
- Um advogado litigante não processa informação jurídica. Representa seu cliente diante de instituições que exigem responsabilização pessoal — e responde por isso.
Retirar o humano dessas equações não é apenas tecnicamente desafiador. É economicamente contra-indicado em contextos onde a humanidade do profissional é parte constitutiva do valor entregue. O economista Michael Spence mostrou que em mercados com assimetria de informação sobre qualidade, a presença humana funciona como sinal credível de comprometimento. Um sistema automatizado é estruturalmente incapaz de emitir esse sinal — não porque seja menos capaz tecnicamente, mas porque não pode ser responsabilizado.
05 —O impacto que ninguém está medindo: menos atrito, mais clareza
Todo o debate sobre IA e trabalho gira em torno de um eixo: substituição ou não de postos. Mas há um canal de impacto possivelmente mais imediato — e empiricamente mais tratável — que ficou fora do relatório e de grande parte da literatura.
Em 1937, Ronald Coase perguntou por que existem empresas. A resposta que ele deu foi: porque coordenar pelo mercado tem custos de transação — custo de comunicar, negociar, verificar, monitorar. A firma internaliza essas transações quando é mais barato fazê-lo internamente.
A IA generativa parece atuar precisamente nessa fronteira. O que tenho observado em equipes que a adotam de forma mais madura é menos sobre produzir mais rápido e mais sobre:
Se isso se confirmar empiricamente, o impacto da IA não se manifestaria primariamente como substituição de postos de trabalho, mas como compressão do tempo de ciclo de projetos e aumento da capacidade de coordenação com menor overhead. Equipes menores talvez consigam entregar o que antes exigia equipes maiores — não porque as pessoas foram demitidas, mas porque o atrito entre elas diminuiu.
Medir esse fenômeno exigiria métricas que o relatório não usa: densidade de produção por pessoa, velocidade de ciclo de projeto, qualidade da comunicação intraorganizacional. É uma agenda de pesquisa urgente e pouco explorada.
O que fazer com tudo isso?
O relatório da Anthropic é metodologicamente honesto. Ele encontra, com rigor, ausência de impacto sistemático no desemprego das ocupações mais expostas desde o lançamento do ChatGPT. Isso não significa que a IA não transformará o trabalho — significa que essa transformação obedece a lógicas que vão muito além da capacidade técnica dos modelos.
Três conclusões práticas emergem dessa leitura:
- O gap entre potencial teórico e uso real da IA é, em grande parte, estrutural — e não será resolvido apenas com modelos melhores. Exige reorganização de processos, construção de capacidade absortiva e ajuste regulatório.
- Organizações que adotam IA para reduzir fricção e melhorar coordenação provavelmente colherão ganhos antes das que a adotam para substituir postos de trabalho. O impacto mais imediato pode ser na qualidade da comunicação, não no tamanho das equipes.
- Há dimensões do trabalho humano que não devem ser automatizadas — não por limitação técnica, mas porque a humanidade do profissional é parte constitutiva do valor entregue. Identificar quais são essas dimensões é tão importante quanto medir a exposição técnica.
A pergunta não é se a IA vai transformar o trabalho. É quando, como, para quem — e a que custo. Responder isso com honestidade exige exatamente o tipo de humildade que os autores do relatório demonstram com os dados, mas que ainda falta na teoria.