Adamya Sharma / Autoridade Android
DR
- Dieter Bohn, do Google, compartilhou uma demonstração do protótipo de óculos de exibição Android XR da empresa.
- Na demonstração, os óculos são usados para tradução ao vivo, videochamada, obtenção de rotas a pé e muito mais.
- Bohn revela que havia prescrições de clipes para a demonstração no MWC, mas isso não será feito para o produto final.
Não quero perder o melhor de Autoridade Android?
No Reddit, Bohn postou um vídeo do protótipo que apareceu no estande do Google no MWC. Os óculos possuem uma única tela e são totalmente integrados aos modelos Gemini 3 mais recentes. Durante a demonstração, Bohn demonstra as diversas habilidades do dispositivo, como tradução ao vivo, videochamadas e assim por diante.
Um dos feitos mais impressionantes demonstrados foi obter instruções simplesmente olhando para um pôster. Bohn olha para o pôster de um campo de futebol e depois pede a Gemini instruções para caminhar até o estádio. Gemini foi capaz de descobrir para onde Bohn queria ir e não apenas ofereceu instruções em seu campo de visão, mas também forneceu um mapa quando olhou para baixo.
Bohn também usou Gemini para identificar a capa de um álbum. Além de identificar o álbum, a IA conseguiu reproduzir músicas desse álbum abrindo o YouTube Music.
A parte final da demonstração focou na integração do Nano Banana. Bohn pediu a Gemini que usasse a câmera embutida para tirar uma foto das pessoas à sua frente. Ele então pediu à IA que reinventasse a foto, colocando todos em frente à La Sagrada Familia, uma famosa igreja de Barcelona.
Bohn deixa claro que esses óculos inteligentes são apenas protótipos e que a versão final terá uma aparência diferente. Ele acrescenta que havia clipes de prescrição para este protótipo, mas isso “não é algo que faríamos nas versões finais”.
Obrigado por fazer parte da nossa comunidade. Leia nossa Política de Comentários antes de postar.

