Óculos Ray-Ban da Meta agora contam com Shazam, traduções e IA ao vivo

A Meta atualizou seus óculos inteligentes Ray-Ban com IA ao vivo, traduções em tempo real e suporte ao Shazam O post Óculos Ray-Ban da Meta agora contam com Shazam, traduções e IA ao vivo apareceu primeiro em Olhar Digital.

Óculos Ray-Ban da Meta agora contam com Shazam, traduções e IA ao vivo

A Meta anunciou recentemente a chegada de três novos recursos para seus óculos inteligentes Ray-Ban: IA ao vivo, traduções em tempo real e o suporte ao Shazam. As funcionalidades de IA ao vivo e traduções estão inicialmente disponíveis para membros do Programa de Acesso Antecipado da Meta, enquanto o Shazam está liberado para todos os usuários nos Estados Unidos e no Canadá.

Essas atualizações trazem novos recursos que ampliam as possibilidades de uso dos óculos inteligentes da Meta, com destaque para a integração de assistentes de IA e tecnologias de tradução instantânea. As funções de IA ao vivo e traduções foram apresentadas pela Meta no Meta Connect 2024, como parte de uma estratégia mais ampla para colocar a inteligência artificial no centro da experiência do usuário.

meta glasses
Óculos da Meta recebeu novos recursos (Imagem: JLStock / Shutterstock.com)

IA ao vivo e traduções em tempo real nos óculos inteligentes da Meta

  • Os recursos de IA ao vivo e traduções em tempo real foram uma das grandes novidades do Meta Connect 2024.
  • A IA ao vivo permite uma interação mais fluida com o assistente virtual da Meta, que pode observar o ambiente ao redor e responder a comandos em tempo real.
  • Por exemplo, ao estar no setor de frutas e verduras de um supermercado, o usuário pode pedir sugestões de receitas com base nos ingredientes que está vendo.
  • A Meta garante que o recurso pode ser utilizado por cerca de 30 minutos com uma carga completa dos óculos.
  • Já o recurso de tradução ao vivo possibilita a tradução em tempo real de conversas entre inglês e outros idiomas, como espanhol, francês e italiano.
  • Os usuários podem optar por ouvir a tradução diretamente nos óculos ou visualizar as transcrições no celular.
  • Para utilizar a tradução, é importante que os pares de idiomas sejam baixados previamente, e o usuário deve definir qual idioma está falando e qual seu interlocutor está usando.

Suporte ao Shazam

O recurso de Shazam é mais simples e direto: basta pedir ao assistente da Meta para identificar a música que está tocando no ambiente. A funcionalidade, que também foi demonstrada por Mark Zuckerberg em um vídeo no Instagram, está disponível para todos os usuários da Meta nos Estados Unidos e no Canadá.

Como acessar os novos recursos

Para acessar essas funcionalidades, os usuários precisam garantir que seus óculos estejam com a versão v11 do software e o aplicativo Meta View na versão v196. Aqueles que não fazem parte do Programa de Acesso Antecipado podem se inscrever através do site da Meta.

Leia mais:

O futuro dos óculos inteligentes

Essas novidades chegam em um momento estratégico, quando as grandes empresas de tecnologia estão promovendo os assistentes de IA como a principal razão de ser dos óculos inteligentes. Recentemente, o Google anunciou o Android XR, um sistema operacional para óculos inteligentes, destacando seu assistente de IA Gemini como o grande atrativo.

Andrew Bosworth, diretor de tecnologia da Meta, também afirmou que 2024 será o ano em que os óculos inteligentes definidos por IA atingirão seu ápice, destacando o potencial desses dispositivos como os primeiros a serem completamente moldados pela inteligência artificial desde o início.

O post Óculos Ray-Ban da Meta agora contam com Shazam, traduções e IA ao vivo apareceu primeiro em Olhar Digital.