Óculos da Meta sugerem músicas no Spotify com base no que você vê

A Meta começou a liberar uma atualização para seus óculos inteligentes nesta semana. O update amplia, de forma prática, o que o acessório consegue fazer no dia a dia. A principal novidade é uma integração entre Meta AI e Spotify que permite tocar músicas ou criar playlists com base no que o usuário está vendo. Junto disso, chega um recurso pensado para facilitar conversas em ambientes barulhentos.

As funções fazem parte da versão 21 do software dos óculos Ray-Ban Meta e Oakley Meta HSTN. A liberação é gradual e começa pelos usuários inscritos no programa Early Access, mas já indica o caminho da Meta: transformar os óculos inteligentes em assistentes ativos, capazes de conectar visão, áudio e contexto de forma quase automática.

Óculos inteligentes da Meta usam IA para sugerir músicas do Spotify a partir do ambiente

A integração com o Spotify é apresentada pela Meta como sua primeira experiência musical realmente multimodal (isto é, que cruza o que o usuário vê com ações dentro de um aplicativo). Na prática, basta um comando de voz para pedir que os óculos toquem uma música ou criem uma playlist que “combine” com a cena à frente.

Se a pessoa estiver olhando para a capa de um álbum, por exemplo, os óculos da Meta podem tocar uma música daquele artista no Spotify (Imagem: PJ McDonnell/Shutterstock)

O funcionamento é simples de entender. Se a pessoa estiver olhando para a capa de um álbum, por exemplo, os óculos podem tocar uma faixa daquele artista. Se o cenário for uma decoração de Natal ou um ambiente festivo, a IA tenta puxar músicas que combinem com aquele clima, usando os sistemas de recomendação do Spotify.

Segundo a Meta, a ideia é unir visão computacional (capacidade de reconhecer o que está no campo de visão da pessoa) com a personalização do Spotify, que já conhece os gostos do usuário. O resultado é uma trilha sonora pensada para aquele momento específico, sem que seja preciso pegar o celular ou procurar manualmente.

Mesmo assim, a própria empresa admite que o recurso ainda tem pé no experimental. Ele funciona mais como uma demonstração do que a Meta pretende fazer com IA multimodal do que como uma ferramenta essencial. Ainda assim, chama atenção por estar disponível em mais mercados, incluindo o Brasil, desde que o uso seja em inglês.

Novo recurso da Meta tenta facilitar conversas em locais barulhentos

A outra novidade da atualização é o Conversation Focus, recurso pensado para quem tem dificuldade de ouvir alguém em ambientes barulhentos. Anunciado meses atrás no evento Meta Connect, ele começa agora a chegar aos óculos compatíveis por meio do novo software.

Conversation Focus foi pensado para quem tem dificuldade de ouvir alguém em ambientes barulhentos (Imagem: Divulgação/Meta)

A ideia é usar os microfones direcionais e os alto-falantes abertos dos óculos para amplificar a voz da pessoa com quem o usuário está conversando. O som fica levemente destacado, o que ajuda a separar a fala do barulho ao redor.

O nível dessa amplificação pode ser ajustado pelo próprio usuário, seja com gestos no braço dos óculos, por comandos de voz ou pelas configurações do dispositivo. A ideia é adaptar o volume ao ambiente, por exemplo: um restaurante cheio, um trem lotado ou um evento ao ar livre.

Leia mais:

A Meta faz questão de deixar claro que o Conversation Focus não é um recurso médico nem uma ferramenta formal de acessibilidade. Ele é apresentado como um ganho prático para o uso cotidiano. Por enquanto, a função fica restrita aos Estados Unidos e ao Canadá, também via Early Access, nos modelos Ray-Ban Meta e Oakley Meta HSTN.

O post Óculos da Meta sugerem músicas no Spotify com base no que você vê apareceu primeiro em Olhar Digital.

Related posts

Quase 500 mil produtos irregulares são apreendidos em megaoperação da Anatel

Site adulto sofre ataque e grupo cibercriminoso ameaça expor dados de assinantes

Vale a pena usar o Nvidia GeForce Now Ultimate? Confira review