Estava acompanhando o último lançamento da META e mesmo com todas as falhas pensei em algo aqui que gostaria de compartilhar com vocês.
Enquanto todo mundo estava focado em realidade aumentada e chamadas de vídeo, eu tive um insight completamente diferente: e se pudéssemos treinar um modelo de IA para detectar anúncios no campo visual desses óculos?
Não estou falando só de outdoors. Estou falando de TODOS os anúncios – seja no seu smartphone, laptop, TV, ou numa placa na rua. Os óculos não distinguem entre digital e físico. Eles simplesmente veem o que você vê.
E nem estou falando de algo que é impossível ou que está em uma tecnologia muito muito distante, empresas como a VISUA já entregam algo muito parecido para detecção de marcas.
Aí que a ficha caiu: Será que isso permitiria entender ou rastrear a interação do usuário com anúncios?
- PS: Esse artigo é um exercício de futurologia. Tudo que estou pensando aqui pode ser uma completa bobagem – mas se não for, pode mudar completamente como fazemos marketing.
O setup: imagine que cada pessoa é um sensor ambulante
Feche os olhos e imagine: você está caminhando pela rua, vê um outdoor da Nike, entra numa loja, compra um tênis. Simples, né? Agora me responda: como provar que o outdoor influenciou sua compra?
Durante décadas, essa pergunta atormentou marketeiros. Hoje, gastamos bilhões em publicidade baseados em suposições, correlações duvidosas e o famoso “achômetro”. Mas e se eu te dissesse que estamos a literalmente alguns anos de resolver esse problema de uma vez por todas?
E se cada pessoa pudesse carregar um dispositivo capaz de registrar exatamente o que ela vê, por quanto tempo olha, em que contexto, e conectar isso diretamente com suas ações posteriores?
- Bem-vindo ao futuro da atribuição publicitária.*
O estado atual: vivemos na era do “achômetro”
O problema fundamental
Hoje, embora existam soluções como Marketing Mix Modeling (MMM) e testes de incrementalidade que conseguem resolver muitos problemas de atribuição, a maioria das empresas ainda opera no “achômetro”. Por quê?
- Ferramentas que já funcionam (mas poucos usam direito):*
- MMM: Modela impacto de diferentes canais estatisticamente
- Testes de incrementalidade: Medem lift real através de grupos de controle
- Attribution modeling avançado: Vai além do last-click
- Por que ainda vivemos no achismo então?*
- Complexidade: MMM exige expertise estatística que muitas empresas não têm
- Custo: Implementação robusta custa centenas de milhares
- Tempo: Resultados levam meses para aparecer
- Resistência: Plataformas não incentivam (preferem seus próprios relatórios)
- O cenário atual é assim:*
- Facebook diz: “Seu anúncio gerou 1.000 conversões”
- Google afirma: “Na verdade, foram nossos anúncios que converteram”
- MMM mostra: “Na verdade, foi uma combinação de TV + Facebook + sazonalidade”
- Realidade: Só 20% das empresas investem em MMM robusto
Pesquisas mostram que mesmo empresas com MMM frequentemente veem discrepâncias de 15-30% entre diferentes metodologias de medição.
É como tentar montar um quebra-cabeça onde cada peça vem de uma caixa diferente. MMM seria como contratar um estatístico para deduzir a imagem final — funciona, mas é caro, lento, e nem todo mundo tem acesso.
Os walled gardens e suas “verdades”
As big techs criaram ecossistemas fechados onde:
- Meta vê apenas o que acontece no Facebook/Instagram
- Google só enxerga YouTube/Search/Display
- TikTok, Snapchat, LinkedIn… cada um com sua versão da “verdade”
- Resultado:* A maioria das empresas ainda gasta fortunas baseada em relatórios que se contradizem, mesmo existindo ferramentas melhores (que são complexas/caras demais para implementar).
O buraco negro da medição publicitária total
O problema não é só o mundo físico – é que vivemos numa realidade híbrida onde digital e físico se misturam constantemente, mas nossa medição publicitária ainda trata como mundos separados:
- Mundo físico:*
- Outdoors: medição baseada em localização de smartphone (imprecisa)
- TV: pesquisas de audiência com amostras minúsculas
- Rádio: basicamente chute educado
- Ponto de venda: zero conexão com exposição prévia
- Mundo digital:*
- Cross-device tracking quebrado: impossível conectar phone + tablet + desktop de forma confiável
- Ad blockers: anúncios “servidos” mas não visualizados
- Viewability duvidosa: anúncio “100% visível” mesmo quando usuário está em outra aba
- Multi-screen blindness: pessoa vendo TV + mexendo no celular, mas cada canal medido separadamente
- A realidade híbrida que ninguém consegue medir:*
Você está no sofá, vê um comercial de Netflix na TV, pega o celular, vê um anúncio da mesma série no Instagram, pesquisa no Google, e assiste no tablet. Qual touchpoint “converteu”? Ninguém sabe.
- O mercado de publicidade digital movimenta US$ 500+ bilhões anuais* baseado em medições que ignoram completamente essa realidade multi-tela, multi-ambiente.
A convergência: quando três revoluções se encontram
Revolução 1: computer vision atingiu maturidade
Não estamos mais falando de ficção científica.* A tecnologia atual já consegue:
- 87% de precisão na detecção de objetos em tempo real
- Reconhecimento de logos com 83,6% de acurácia
- Processamento de vídeo de 2 horas em uma única passada (Vertex AI)
- Bibliotecas com dezenas de milhares de marcas catalogadas
- Exemplo prático:* A empresa VISUA já oferece sistemas comerciais que detectam automaticamente marcas em conteúdo visual, processam em tempo real, e geram relatórios estruturados.
Revolução 2: wearables se tornaram mainstream
O que mudou desde o fracasso do Google Glass:
- Aceitação social: Ray-Ban Meta vendeu +2 milhões de unidades
- Tecnologia: Processadores ARM eficientes, baterias de 8h, design discreto
- Ecossistema: Apps, integrações, casos de uso claros
- Preço: De US$ 1.500 (Glass) para US$ 299 (Ray-Ban básico)
Revolução 3: IA generativa criou contexto semântico
Não basta mais detectar “uma pessoa olhando para uma tela”. Agora conseguimos:
- Identificar o tipo de conteúdo (anúncio vs editorial)
- Categorizar por vertical (moda, tech, food)
- Medir emoções através de micro-expressões
- Conectar com intenção através de comportamento subsequente
- O Meta Llama 3.2 já faz isso nos óculos Ray-Ban.* É questão de expandir as capacidades.
O momento “e se”: cenários que mudam tudo
Cenário 1: o mundo como dashboard
Imagine acordar e ver seus óculos inteligentes te mostrando:
- “Você foi exposto a 47 anúncios ontem”
- “Olhou para 12 por mais de 3 segundos”
- “3 resultaram em pesquisas posteriores”
- “1 gerou compra”
- Para consumidores:* Transparência total sobre influência publicitária
- Para marcas:* Dados precisos de atenção e conversão
- Para plataformas:* Fim das discussões sobre “quem converteu”
Cenário 2: o fim do CPM, nascimento do CPO?
E se ao invés de pagar por impressões, você pagasse apenas por olhares confirmados?
- CPM (Cost Per Mille):* Quanto você paga por 1.000 “impressões”
- CPO (Cost Per Olhar):* Quanto você pagaria por 1.000 “olhares reais”
A diferença seria revolucionária:
- CPM: “Seu anúncio apareceu na tela”
- CPO: “Alguém comprovadamente olhou para seu anúncio”
- Implicação:* E se anúncios fossem pagos apenas quando gerassem atenção real? Imagine o impacto nos preços de mídia.
Cenário 3: medição total da realidade híbrida
Finalmente conectar TODA a jornada do consumidor:
- Outdoor → Busca no Google → Anúncio no Instagram → Compra na loja
- Comercial na TV → Notification no smartphone → Conversa sobre produto → Compra online
- Banner no desktop → Story no Instagram mobile → Pesquisa no tablet → Visita à loja física
Mas aqui está o insight revolucionário: os óculos não distinguem “anúncio físico” vs “anúncio digital”. Eles simplesmente detectam qualquer conteúdo publicitário no campo visual do usuário, seja numa tela ou num outdoor.
Isso significa:
- Cross-device tracking real: Os óculos veem quando você olha para smartphone, tablet, laptop, TV
- Multi-screen attribution: Medição simultânea de TV + segunda tela
- Ad blocker irrelevance: Mesmo anúncios bloqueados no código aparecem visualmente
- Real viewability: Medição de atenção real, não apenas “pixel na tela”
- Pela primeira vez na história*, teríamos medição unificada de TODA exposição publicitária — digital e física — numa única fonte de verdade.
Cenário 4: o fim da medição digital fragmentada
Aqui está o que ninguém está falando: os óculos resolveriam problemas do mundo digital que nem percebemos como “problemas” ainda.
- Cross-device tracking real:*
- Hoje: “87% de confiança” que usuário X no desktop = usuário Y no mobile
- Amanhã: Certeza absoluta porque os óculos veem você olhando para ambos
- Multi-screen simultâneo:*
- Hoje: TV diz “1M de visualizações”, Instagram diz “500K impressões” no mesmo horário
- Amanhã: Os óculos medem exatamente quantas pessoas estavam vendo ambos
- Viewability real:*
- Hoje: Anúncio “100% viewable” mesmo com usuário em outra aba
- Amanhã: Medição de atenção real por milissegundo
- Ad fraud elimination:*
- Hoje: Bots geram trilhões de impressões falsas
- Amanhã: Impossível fraudar um olhar humano real
- Resultado:* O mercado de publicidade digital, que hoje vale US$ 500+ bilhões, seria completamente reprecificado baseado em atenção real ao invés de impressões estimadas.
As implicações profundas: o que muda (tudo)
Para marcas: o fim do desperdício
- Hoje:* “Metade do meu orçamento de marketing é desperdiçada. O problema é que não sei qual metade.” (John Wanamaker, 1838-1922)
- Amanhã:* Saber exatamente qual anúncio, em que momento, gerou que resultado.
- Resultado:* Orçamentos de marketing podem se tornar 50-70% mais eficientes.
Para agências: nova categoria de profissional
Surge a necessidade de “Attribution Engineers“:
- Especialistas em conectar dados cross-platform
- Modelagem de jornadas complexas em tempo real
- Otimização baseada em atenção real vs impressões
Para plataformas: fim dos walled gardens?
Se óculos inteligentes podem medir tudo, as plataformas perdem o monopólio da “verdade” sobre suas próprias conversões.
- Cenário disruptivo:* Uma startup criando “Google Analytics da Vida Real” conectando todas as exposições publicitárias com resultados reais.
Para consumidores: transparência vs privacidade
- O lado bom:* Você saberá exatamente como está sendo influenciado
- O lado complexo:* Seus padrões de atenção se tornam dados vendáveis
A realidade técnica: já é possível hoje
Stack tecnológico necessário
- Hardware: Óculos com câmera + processador (✅ Existe)
- Computer Vision: Detecção de anúncios (✅ Vertex AI)
- Database: Catalogação de marcas (✅ Empresas como VISUA)
- ML Model: Classificação de conteúdo (✅ APIs disponíveis)
- Analytics: Dashboard de atribuição (✅ Ferramentas existem)
Exemplo de implementação prática
- Passo 1:* Óculos capturam vídeo do campo visual
- Passo 2:* API do Vertex AI identifica logos/marcas na imagem
- Passo 3:* Timestamp + localização + duração do olhar são registrados
- Passo 4:* Correlação com comportamento posterior (compras, buscas, visitas)
- Passo 5:* Dashboard mostra ROI real de cada ponto de contato
- Custo para implementar:* Bem menos que uma campanha no Meta Ads
Os obstáculos: por que não aconteceu ontem
Barreira 1: privacidade e regulamentação
- GDPR (Europa): Exige consentimento explícito para dados visuais
- BIPA (Illinois): US$ 1.000-5.000 de multa por violação biométrica
- CCPA (Califórnia): Dados visuais são considerados informação pessoal
- Realidade:* Em abril de 2025, a Meta eliminou proteções cruciais de privacidade dos óculos Ray-Ban: usuários não podem mais impedir que gravações de voz sejam armazenadas na nuvem, recursos de IA com câmera estão sempre ativados exceto se comandos “Hey Meta” forem completamente desabilitados, e gravações são retidas por até um ano para treinamento de IA.
Barreira 2: adoção em massa
Para significância estatística, precisamos de pelo menos 10% da população usando óculos inteligentes.
- Cenário atual:* ~2 milhões de óculos Meta vendidos
- Necessário:* ~30 milhões nos EUA
Barreira 3: aceitação social
O Google Glass falhou porque criou o fenômeno “Glasshole” – pessoas eram banidas de restaurantes e bares.
- Diferença hoje:* Ray-Ban conseguiu design socialmente aceitável.
Barreira 4: infraestrutura de adtech
Todo o ecossistema programático atual foi construído para CPM, não CPG.
- Mudança necessária:* Reconstruir DSPs, SSPs, ad exchanges para métricas baseadas em atenção (CPO ao invés de CPM).
As questões filosóficas: o que isso significa?
Pergunta 1: queremos um mundo completamente rastreável?
- Benefício:* Propaganda relevante, menos desperdício, transparência
- Custo:* Fim do anonimato, novos níveis de vigilância
Pergunta 2: quem controla os dados?
- Modelo Meta: Empresa controla tudo
- Modelo Apple: Dados ficam no dispositivo
- Modelo Aberto: Usuário escolhe o que compartilhar
Pergunta 3: o marketing fica melhor ou mais invasivo?
- Cenário otimista:* Anúncios super relevantes, menos spam
- Cenário pessimista:* Manipulação baseada em dados íntimos de atenção
Conclusão: a pergunta não é “se”, mas “como”
A tecnologia para medir cada olhar, cada momento de atenção, cada ponto de contato na jornada do consumidor já existe. Os óculos inteligentes são apenas o veículo.
- A verdadeira revolução não é colocar um computador em um óculos.*
- É transformar cada pessoa em um sensor de marketing.*
As perguntas que ninguém está fazendo
- E se cada segundo do seu olhar pudesse ser monetizado?* Quanto vale um olhar de 3 segundos para um outdoor da Nike? E um olhar de 0,5 segundo para um anúncio no Instagram?
- E se suas pupilas se tornassem o novo cookies?* Quando terceiros conseguirem comprar dados de onde você olha, o que muda na sua relação com o espaço público?
- E se a privacidade visual deixasse de existir?* Hoje você pode fechar os olhos ou olhar para outro lado. Amanhã, isso também será registrado como “comportamento de evitação publicitária”.
- E se descobrissem que 90% dos anúncios digitais nunca foram realmente vistos?* O que acontece com um mercado de US$ 500 bilhões construído sobre uma mentira?
- E se o seu padrão de atenção revelasse mais sobre você do que seu histórico de navegação?* Os algoritmos podem descobrir suas inseguranças apenas pela forma como você evita olhar certas coisas?
A pergunta final que deveria te deixar acordado à noite
Em 10 anos, quando cada superfície for rastreável e cada olhar for medível, vamos nos perguntar:
- Como conseguimos viver décadas achando que sabíamos onde as pessoas estavam prestando atenção, quando na verdade não fazíamos a menor ideia?*
E mais importante: Quando a medição perfeita chegar, ainda vamos querer saber a resposta?
- O futuro da atribuição não está chegando. Ele já está aqui.*
- A única questão é: você vai colocar os óculos ou vai ser medido pelos óculos dos outros?*