O desafio de desaprender na era da IA

Publicado na semana passada, Labor Market Impacts of AI: A New Measure and Early Evidence é o estudo mais detalhado já produzido pela Anthropic sobre o impacto da inteligência artificial no mercado de trabalho. Analisou mais de um milhão de conversas reais com o Claude, mapeou mais de 20 mil tarefas profissionais e criou uma métrica chamada “observed exposure”, a distância entre o que a IA é teoricamente capaz de fazer e como está sendo efetivamente usada nas organizações.

Para profissionais de computação e matemática, modelos de linguagem são teoricamente capazes de executar 94% das tarefas. Em funções administrativas, o gap é semelhante. O vermelho, adoção real, é uma fração do azul, capacidade possível.

O próprio paper identifica o problema e indica que a diferença entre a exposição atual à IA e a exposição potencial é muito grande, abrindo a possibilidade de maior disrupção adiante. Mas há uma dimensão que o estudo não captura.

O problema das fotografias

O paper mede um momento. Uma fotografia de onde a adoção chegou em relação ao que já é possível. É uma contribuição valiosa para gestores que precisam entender o presente.

Mas o presente não é onde o risco mais relevante se esconde.

A fronteira azul não é estática. Enquanto o vermelho tenta alcançar o azul atual, os modelos continuam avançando e expandindo o próprio azul em velocidade provavelmente superior à velocidade da capacidade de qualquer organização absorver o que já existe no mundo teórico. Não por falha das empresas, mas porque a capacidade teórica se expande mais rápido do que a fricção corporativa — legal, cultural, regulatória — permite.

É preciso mudar o foco e observar o “vazio”, o espaço além do que a teoria nos permite enxergar hoje. Não o vermelho do que já foi adotado, nem o azul do que já se sabe possível. Mas o branco do que ainda não tem contorno, mas que ganhará forma em 18 a 36 meses.

Fonte: https://www.anthropic.com/research/labor-market-impacts “Theoretical capability and observed exposure by occupational category. Share of job tasks that LLMs could theoretically perform (blue area) and our own job coverage measure derived from usage data (red area).”

É nesse espaço que o risco real se prepara, silenciosamente.

Execute, Adapt, Unlearn

A partir dessa observação desenvolvemos um framework de três círculos para avaliar prontidão organizacional diante da expansão da IA.

Execute é o círculo interno, no domínio do conhecido. Aqui a organização opera o que já sabe, com processos estabelecidos e métricas de eficiência. É onde a maioria das análises de impacto da IA se concentra e onde os resultados são mais visíveis.

Adapt é o círculo intermediário, no domínio da mudança. A organização precisa de abertura para absorver o que já é tecnicamente possível, mas ainda não foi internalizado. A métrica aqui não é velocidade, mas permeabilidade. A capacidade de mudar sem quebrar.

Unlearn é o círculo externo, no domínio do desconhecido em mutação. Aqui as métricas do passado deixam de funcionar. Eficiência, velocidade, ROI — todos são instrumentos calibrados para o que já existe. No espaço branco, a única métrica útil é a qualidade da experimentação: a capacidade de errar com aprendizado, de desaprender ativamente para explorar o que ainda não tem forma.

Perguntas diferentes para contextos diferentes

O C-level gerencia a tensão entre Execute e Adapt. A execução, acelerar adoção, reduzir fricção, transformar capacidade teórica em operação real. Roadmaps, change management, e indicadores de cobertura. O horizonte é o que cabe no balanço.

O board monitora a distância entre Adapt e Unlearn. A prontidão organizacional, que indica a capacidade da empresa de navegar de forma consciente quando o azul se expande e engloba o que hoje está no espaço branco. O horizonte é o que ainda não tem nome.

A maioria dos modelos de maturidade de IA disponíveis hoje está calibrada para a tensão Execute/Adapt. Perguntam “quão bem está sendo adotado?” quando a pergunta estratégica do board deveria ser: “quão bem estamos organizacionalmente preparados para o que ainda não sabemos que virá?”. Esse é o tipo de pergunta que estamos interessados na Comissão do Futuro da Governança, no IBGC – Instituto Brasileiro de Governança Corporativa.

São perguntas fundamentalmente diferentes e, por isso, exigem instrumentos igualmente fundamentalmente diferentes.

O que medir no espaço branco

A pergunta sobre prontidão para o círculo Unlearn não tem resposta fácil.

Se o CA só consegue avaliar a IA com métricas de eficiência e velocidade de adoção, ele está, na prática, navegando o futuro com instrumentos do passado. O espaço branco não é um vácuo temporário que a adoção eventualmente preencherá. É o espaço onde decisões estratégicas são tomadas sem consciência do risco real e onde as organizações mais bem preparadas construirão vantagem antes que o risco se torne visível para todos.

Prontidão para o Unlearn não se mede com quantas ferramentas de IA a empresa adotou. Mede-se pela capacidade da organização de experimentar sem garantia de retorno, de errar sem punição, de desaprender uma certeza operacional antes que ela se torne um obstáculo.

É uma métrica de cultura antes de ser uma métrica de tecnologia.

The 42* question

Se sua organização precisasse desaprender uma certeza estratégica hoje para estar pronta amanhã, qual seria ela? E quem no seu conselho está fazendo essa pergunta?
 

Related posts

‘Kit Hacker Coruna”: Apple corrige falhas em iPhones antigos após ataques

Death Stranding 2 e mais games de PS5 e PS4 com até 90% OFF

Operação desmantela grupo que vendia armas feitas em impressoras 3D