Óculos Ray-Ban da Meta agora contam com Shazam, traduções e IA ao vivo
A Meta atualizou seus óculos inteligentes Ray-Ban com IA ao vivo, traduções em tempo real e suporte ao Shazam O post Óculos Ray-Ban da Meta agora contam com Shazam, traduções e IA ao vivo apareceu primeiro em Olhar Digital.
A Meta anunciou recentemente a chegada de três novos recursos para seus óculos inteligentes Ray-Ban: IA ao vivo, traduções em tempo real e o suporte ao Shazam. As funcionalidades de IA ao vivo e traduções estão inicialmente disponíveis para membros do Programa de Acesso Antecipado da Meta, enquanto o Shazam está liberado para todos os usuários nos Estados Unidos e no Canadá.
Essas atualizações trazem novos recursos que ampliam as possibilidades de uso dos óculos inteligentes da Meta, com destaque para a integração de assistentes de IA e tecnologias de tradução instantânea. As funções de IA ao vivo e traduções foram apresentadas pela Meta no Meta Connect 2024, como parte de uma estratégia mais ampla para colocar a inteligência artificial no centro da experiência do usuário.
IA ao vivo e traduções em tempo real nos óculos inteligentes da Meta
- Os recursos de IA ao vivo e traduções em tempo real foram uma das grandes novidades do Meta Connect 2024.
- A IA ao vivo permite uma interação mais fluida com o assistente virtual da Meta, que pode observar o ambiente ao redor e responder a comandos em tempo real.
- Por exemplo, ao estar no setor de frutas e verduras de um supermercado, o usuário pode pedir sugestões de receitas com base nos ingredientes que está vendo.
- A Meta garante que o recurso pode ser utilizado por cerca de 30 minutos com uma carga completa dos óculos.
- Já o recurso de tradução ao vivo possibilita a tradução em tempo real de conversas entre inglês e outros idiomas, como espanhol, francês e italiano.
- Os usuários podem optar por ouvir a tradução diretamente nos óculos ou visualizar as transcrições no celular.
- Para utilizar a tradução, é importante que os pares de idiomas sejam baixados previamente, e o usuário deve definir qual idioma está falando e qual seu interlocutor está usando.
Suporte ao Shazam
O recurso de Shazam é mais simples e direto: basta pedir ao assistente da Meta para identificar a música que está tocando no ambiente. A funcionalidade, que também foi demonstrada por Mark Zuckerberg em um vídeo no Instagram, está disponível para todos os usuários da Meta nos Estados Unidos e no Canadá.
Como acessar os novos recursos
Para acessar essas funcionalidades, os usuários precisam garantir que seus óculos estejam com a versão v11 do software e o aplicativo Meta View na versão v196. Aqueles que não fazem parte do Programa de Acesso Antecipado podem se inscrever através do site da Meta.
Leia mais:
- Meta AI: como mudar a voz na IA do WhatsApp
- Quer conversar com uma IA no WhatsApp? Veja alternativas à Meta AI
- Meta AI ou Google Gemini: qual é melhor inteligência artificial?
O futuro dos óculos inteligentes
Essas novidades chegam em um momento estratégico, quando as grandes empresas de tecnologia estão promovendo os assistentes de IA como a principal razão de ser dos óculos inteligentes. Recentemente, o Google anunciou o Android XR, um sistema operacional para óculos inteligentes, destacando seu assistente de IA Gemini como o grande atrativo.
Andrew Bosworth, diretor de tecnologia da Meta, também afirmou que 2024 será o ano em que os óculos inteligentes definidos por IA atingirão seu ápice, destacando o potencial desses dispositivos como os primeiros a serem completamente moldados pela inteligência artificial desde o início.
O post Óculos Ray-Ban da Meta agora contam com Shazam, traduções e IA ao vivo apareceu primeiro em Olhar Digital.