O CEO da Meta, Mark Zuckerberg, anunciou atualizações para os óculos inteligentes Ray-Ban Meta da empresa no Meta Connect 2024 na quarta-feira. A Meta continuou a defender que os óculos inteligentes podem ser o próximo grande dispositivo de consumo, anunciando alguns novos recursos de IA e recursos familiares de smartphones que chegarão ao Ray-Ban Meta ainda este ano.
Alguns dos novos recursos do Meta incluem processamento de vídeo de IA em tempo real e tradução de idioma ao vivo. Outros anúncios — como escaneamento de código QR, lembretes e integrações com iHeartRadio e Audible — parecem dar aos usuários do Ray-Ban Meta os recursos de seus smartphones que eles já conhecem e amam.
A Meta diz que seus óculos inteligentes em breve terão recursos de vídeo de IA em tempo real, o que significa que você pode fazer perguntas aos óculos Ray-Ban Meta sobre o que está vendo na sua frente, e a IA da Meta responderá verbalmente em tempo real. Atualmente, os óculos Ray-Ban Meta só podem tirar uma foto e descrever isso para você ou responder perguntas sobre isso, mas a atualização de vídeo deve tornar a experiência mais natural, pelo menos em teoria. Esses recursos multimodais estão programados para chegar ainda este ano.
Em uma demonstração, os usuários podiam fazer perguntas ao Ray-Ban Meta sobre uma refeição que estavam cozinhando ou cenas da cidade acontecendo na frente deles. Os recursos de vídeo em tempo real significam que a IA do Meta deve ser capaz de processar ações ao vivo e responder de forma audível.
No entanto, é mais fácil falar do que fazer, e teremos que ver o quão rápido e perfeito o recurso é na prática. Vimos demonstrações desses recursos de vídeo de IA em tempo real do Google e OpenAI, mas a Meta seria a primeira a lançar tais recursos em um produto de consumo.
Zuckerberg também anunciou a tradução de idiomas ao vivo para o Ray-Ban Meta. Usuários que falam inglês podem falar com alguém que fala francês, italiano ou espanhol, e seus óculos Ray-Ban Meta devem ser capazes de traduzir o que a outra pessoa está dizendo para o idioma de sua escolha. O Meta diz que esse recurso chegará no final deste ano e incluirá mais idiomas posteriormente.
Os óculos Ray-Ban Meta estão recebendo lembretes, o que permitirá que as pessoas peçam ao Meta AI para lembrá-los sobre coisas que eles olham através dos óculos inteligentes. Em uma demonstração, um usuário pediu aos seus óculos Ray-Ban Meta para lembrar de uma jaqueta que eles estavam olhando para que pudessem compartilhar a imagem com um amigo mais tarde.
A Meta anunciou que integrações com Amazon Music, Audible e iHeart estão chegando aos seus óculos inteligentes. Isso deve facilitar para as pessoas ouvirem música em seu serviço de streaming de escolha usando alto-falantes embutidos nos óculos.
Os óculos Ray-Ban Meta também ganharão a capacidade de escanear códigos QR ou números de telefone dos óculos. Os usuários podem pedir aos óculos para escanear algo, e o código QR será aberto imediatamente no telefone da pessoa sem nenhuma ação adicional necessária.
Os óculos inteligentes também estarão disponíveis em uma variedade de novas lentes Transitions, que respondem à luz ultravioleta para se ajustar à luminosidade do ambiente em que você está.