A Meta anunciou uma actualização significativa para os seus óculos inteligentes Ray-Ban. A nova versão de software v11 traz recursos inovadores de Inteligência Artificial (IA) e, pela primeira vez, integração com o aplicativo de identificação musical Shazam, da Apple.
Com a actualização, os utilizadores poderão identificar músicas directamente pelos óculos, basta apenas dizer: “Hey Meta, que música é essa?”. Os dispositivos utilizarão o Shazam para reconhecer e informar a música que está a tocar.
Segundo a Meta, citada pelo site Sempre Update, a funcionalidade é ideal para aqueles momentos em que ouve uma música nova ou até mesmo uma antiga favorita, mas não consegue lembrar-se do nome ou do artista.
Esta novidade segue a integração com a Apple Music, lançada no início do ano. A funcionalidade permite que os utilizadores solicitem ao assistente virtual da Meta que toque músicas, playlists, álbuns ou artistas, sem precisar de usar as mãos.
Novos recursos de IA
Além da integração com o Shazam, a actualização também introduz funções de IA mais avançadas. Entre os destaques, está o Live AI, que permite partilhar, em tempo real, o que o utilizador está a ver com os óculos. Com esta funcionalidade, o Meta AI pode auxiliar em diversas tarefas diárias, respondendo a perguntas sem necessidade de estar sempre a dizer “Hey Meta”.
Outro recurso interessante é a Tradução ao Vivo, que traduz em tempo real o que a outra pessoa está a dizer. A tradução é transmitida pelos alto-falantes dos óculos no idioma do utilizador, facilitando conversas em diferentes línguas. Está funcionalidade já tinha sido apresentada anteriormente pelo CEO da Meta, Mark Zuckerberg.
Para aceder a estas funcionalidades, os utilizadores precisam de garantir que os seus óculos estejam com a versão v11 do software e o aplicativo Meta View na versão v196. Para os utilizadores que não fazem parte do Programa de Acesso Antecipado podem inscrever-se através do site da Meta.