De provadores a agentes: como o Google acelera na corrida da IA

O Google anunciou duas novidades de inteligência artificial (IA) nesta semana. Uma delas é relativamente simples e divertida: agora é possível “experimentar” sapatos virtualmente no Google Shopping. A outra é um avanço mais robusto: o modelo Gemini 2.5 Computer Use, capaz de usar navegadores como se fosse uma pessoa.

As duas frentes mostram a estratégia da empresa de expandir a IA em direções diferentes — no consumo do dia a dia, ao ajudar usuários a decidir que tênis ou salto levar; e no desenvolvimento de agentes autônomos, que clicam, preenchem formulários e até organizam tarefas em interfaces gráficas.

De provador (virtual) a navegadores: como o Google expande sua IA

O movimento do Google mostra a amplitude de sua aposta em IA. Num mesmo intervalo de dias, a empresa apresentou uma ferramenta voltada ao consumidor comum e um modelo técnico sofisticado. 

Juntos, os anúncios revelam como a companhia busca ocupar tanto o espaço do entretenimento e da conveniência quanto o da infraestrutura para desenvolvedores e empresas.

O provador de sapatos do Google Shopping

O novo recurso do Google Shopping permite que usuários vejam como diferentes pares de sapatos ficariam em seus próprios pés sem precisar ir até uma loja. 

Novo recurso do Google Shopping permite que usuários vejam como diferentes pares de sapatos ficariam em seus próprios pés (Imagem: Reprodução/Google)

A ferramenta funciona a partir de uma foto de corpo inteiro: basta escolher um modelo de tênis, sandália ou salto na busca, clicar em “experimentar” e deixar a inteligência artificial fazer o resto, segundo o Google

O sistema preserva forma, profundidade e proporções para simular como o calçado se ajustaria à imagem da pessoa — no lugar de mandar “foto do pé”, como brincaram alguns usuários. 

Nos Estados Unidos, a versão inicial já vinha funcionando com roupas desde julho. Agora, passa a incluir também os sapatos. Além disso, a novidade chega à Austrália, ao Canadá e ao Japão.

Gemini 2.5 Computer Use: IA que navega na web como gente

O Gemini 2.5 Computer Use é um modelo especializado construído sobre o Gemini 2.5 Pro, com foco numa tarefa ambiciosa: permitir que agentes de IA interajam com interfaces gráficas do mesmo jeito que um usuário humano faria. 

Em vez de depender de APIs, esses agentes podem preencher e enviar formulários, clicar em botões, digitar textos, arrastar e soltar elementos ou navegar por menus em sites. 

Objetivo do Gemini 2.5 Computer Use é permitir que agentes de IA interajam com interfaces gráficas igual um usuário humano faria (Imagem: Divulgação/Google)

Isso abre espaço para automação de tarefas que, até então, exigiam presença humana — por exemplo: se cadastrar num serviço online ou organizar informações em plataformas sem integração direta.

O funcionamento é baseado num ciclo de interação. A IA recebe o pedido do usuário, analisa uma captura de tela e o histórico das últimas ações, decide o próximo passo e executa a tarefa. Em casos mais delicados, como comprar algo, o sistema pede confirmação explícita antes de prosseguir. 

Essa abordagem já vinha sendo testada em protótipos do Google, como o Project Mariner, que simulava adicionar itens num carrinho de compras a partir de uma lista de ingredientes, e em ferramentas internas de teste de software. Agora, a empresa abre o modelo para desenvolvedores em preview público, acessível pelo Google AI Studio e pelo Vertex AI.

Nova IA do Google é um modelo especializado construído em cima do Gemini 2.5 Pro (Imagem: Thrive Studios/Shutterstock)

Além da versatilidade, o Gemini 2.5 Computer Use se destaca pela performance. Segundo o Google, ele supera rivais em benchmarks de controle de interfaces web e mobile, entregando latência menor e precisão maior na execução de tarefas. 

Parceiros que participaram do programa inicial relatam ganhos expressivos. Em alguns casos, a velocidade foi 50% superior à de outras soluções. E a taxa de acerto em cenários complexos cresceu até 18%. 

A ideia é que esse avanço dê aos desenvolvedores uma base mais confiável para construir agentes autônomos capazes de lidar com rotinas digitais.

Segurança e desempenho

A abertura do Gemini 2.5 Computer Use ao público vem acompanhada de preocupação com segurança. O Google incorporou ao modelo camadas de proteção para evitar abusos, desde filtros que barram tentativas de burlar captchas até mecanismos que exigem confirmação do usuário em ações de maior risco, como transações financeiras. 

Cada comando é avaliado por um serviço externo de checagem antes de ser executado, o que reduz a chance de comportamentos inesperados ou usos maliciosos. 

A empresa também alerta que o modelo ainda não foi otimizado para controle completo de sistemas operacionais. Por isso, limita-se a navegadores e aplicativos móveis.

Leia mais:

No que você precisa prestar atenção

O movimento mostra a corrida acirrada entre big techs para dominar todos os espaços possíveis da vida digital. A OpenAI, por exemplo, aposta em agentes cada vez mais versáteis – coisa que a Anthropic já havia incorporado ao Claude.

No fim do dia, o que o Google busca é ocupar terreno com soluções que vão da vitrine de produtos para consumidores finais à infraestrutura de software para empresas e desenvolvedores.

(Essa matéria também usou informações do site The Vergeaqui e aqui.)

O post De provadores a agentes: como o Google acelera na corrida da IA apareceu primeiro em Olhar Digital.

Related posts

Voe sobre Marte nesse novo vídeo do planeta em alta definição

Dados do Gaia revelam segredo da rotação dos asteroides

Parto ao vivo na Twitch tem participação do CEO da plataforma