Publicado na semana passada, Labor Market Impacts of AI: A New Measure and Early Evidence é o estudo mais detalhado já produzido pela Anthropic sobre o impacto da inteligência artificial no mercado de trabalho. Analisou mais de um milhão de conversas reais com o Claude, mapeou mais de 20 mil tarefas profissionais e criou uma métrica chamada “observed exposure”, a distância entre o que a IA é teoricamente capaz de fazer e como está sendo efetivamente usada nas organizações.
Para profissionais de computação e matemática, modelos de linguagem são teoricamente capazes de executar 94% das tarefas. Em funções administrativas, o gap é semelhante. O vermelho, adoção real, é uma fração do azul, capacidade possível.
O próprio paper identifica o problema e indica que a diferença entre a exposição atual à IA e a exposição potencial é muito grande, abrindo a possibilidade de maior disrupção adiante. Mas há uma dimensão que o estudo não captura.
O problema das fotografias
O paper mede um momento. Uma fotografia de onde a adoção chegou em relação ao que já é possível. É uma contribuição valiosa para gestores que precisam entender o presente.
Mas o presente não é onde o risco mais relevante se esconde.
A fronteira azul não é estática. Enquanto o vermelho tenta alcançar o azul atual, os modelos continuam avançando e expandindo o próprio azul em velocidade provavelmente superior à velocidade da capacidade de qualquer organização absorver o que já existe no mundo teórico. Não por falha das empresas, mas porque a capacidade teórica se expande mais rápido do que a fricção corporativa — legal, cultural, regulatória — permite.
É preciso mudar o foco e observar o “vazio”, o espaço além do que a teoria nos permite enxergar hoje. Não o vermelho do que já foi adotado, nem o azul do que já se sabe possível. Mas o branco do que ainda não tem contorno, mas que ganhará forma em 18 a 36 meses.
É nesse espaço que o risco real se prepara, silenciosamente.
Execute, Adapt, Unlearn
A partir dessa observação desenvolvemos um framework de três círculos para avaliar prontidão organizacional diante da expansão da IA.
Execute é o círculo interno, no domínio do conhecido. Aqui a organização opera o que já sabe, com processos estabelecidos e métricas de eficiência. É onde a maioria das análises de impacto da IA se concentra e onde os resultados são mais visíveis.
Adapt é o círculo intermediário, no domínio da mudança. A organização precisa de abertura para absorver o que já é tecnicamente possível, mas ainda não foi internalizado. A métrica aqui não é velocidade, mas permeabilidade. A capacidade de mudar sem quebrar.
Unlearn é o círculo externo, no domínio do desconhecido em mutação. Aqui as métricas do passado deixam de funcionar. Eficiência, velocidade, ROI — todos são instrumentos calibrados para o que já existe. No espaço branco, a única métrica útil é a qualidade da experimentação: a capacidade de errar com aprendizado, de desaprender ativamente para explorar o que ainda não tem forma.
Perguntas diferentes para contextos diferentes
O C-level gerencia a tensão entre Execute e Adapt. A execução, acelerar adoção, reduzir fricção, transformar capacidade teórica em operação real. Roadmaps, change management, e indicadores de cobertura. O horizonte é o que cabe no balanço.
O board monitora a distância entre Adapt e Unlearn. A prontidão organizacional, que indica a capacidade da empresa de navegar de forma consciente quando o azul se expande e engloba o que hoje está no espaço branco. O horizonte é o que ainda não tem nome.
A maioria dos modelos de maturidade de IA disponíveis hoje está calibrada para a tensão Execute/Adapt. Perguntam “quão bem está sendo adotado?” quando a pergunta estratégica do board deveria ser: “quão bem estamos organizacionalmente preparados para o que ainda não sabemos que virá?”. Esse é o tipo de pergunta que estamos interessados na Comissão do Futuro da Governança, no IBGC – Instituto Brasileiro de Governança Corporativa.
São perguntas fundamentalmente diferentes e, por isso, exigem instrumentos igualmente fundamentalmente diferentes.
O que medir no espaço branco
A pergunta sobre prontidão para o círculo Unlearn não tem resposta fácil.
Se o CA só consegue avaliar a IA com métricas de eficiência e velocidade de adoção, ele está, na prática, navegando o futuro com instrumentos do passado. O espaço branco não é um vácuo temporário que a adoção eventualmente preencherá. É o espaço onde decisões estratégicas são tomadas sem consciência do risco real e onde as organizações mais bem preparadas construirão vantagem antes que o risco se torne visível para todos.
Prontidão para o Unlearn não se mede com quantas ferramentas de IA a empresa adotou. Mede-se pela capacidade da organização de experimentar sem garantia de retorno, de errar sem punição, de desaprender uma certeza operacional antes que ela se torne um obstáculo.
É uma métrica de cultura antes de ser uma métrica de tecnologia.
The 42* question
Se sua organização precisasse desaprender uma certeza estratégica hoje para estar pronta amanhã, qual seria ela? E quem no seu conselho está fazendo essa pergunta?