Adamya Sharma / Autoridade Android

DR

  • Dieter Bohn, do Google, compartilhou uma demonstração do protótipo de óculos de exibição Android XR da empresa.
  • Na demonstração, os óculos são usados ​​para tradução ao vivo, videochamada, obtenção de rotas a pé e muito mais.
  • Bohn revela que havia prescrições de clipes para a demonstração no MWC, mas isso não será feito para o produto final.

Não quero perder o melhor de Autoridade Android?

No Reddit, Bohn postou um vídeo do protótipo que apareceu no estande do Google no MWC. Os óculos possuem uma única tela e são totalmente integrados aos modelos Gemini 3 mais recentes. Durante a demonstração, Bohn demonstra as diversas habilidades do dispositivo, como tradução ao vivo, videochamadas e assim por diante.

Um dos feitos mais impressionantes demonstrados foi obter instruções simplesmente olhando para um pôster. Bohn olha para o pôster de um campo de futebol e depois pede a Gemini instruções para caminhar até o estádio. Gemini foi capaz de descobrir para onde Bohn queria ir e não apenas ofereceu instruções em seu campo de visão, mas também forneceu um mapa quando olhou para baixo.

Bohn também usou Gemini para identificar a capa de um álbum. Além de identificar o álbum, a IA conseguiu reproduzir músicas desse álbum abrindo o YouTube Music.

A parte final da demonstração focou na integração do Nano Banana. Bohn pediu a Gemini que usasse a câmera embutida para tirar uma foto das pessoas à sua frente. Ele então pediu à IA que reinventasse a foto, colocando todos em frente à La Sagrada Familia, uma famosa igreja de Barcelona.

Bohn deixa claro que esses óculos inteligentes são apenas protótipos e que a versão final terá uma aparência diferente. Ele acrescenta que havia clipes de prescrição para este protótipo, mas isso “não é algo que faríamos nas versões finais”.

Obrigado por fazer parte da nossa comunidade. Leia nossa Política de Comentários antes de postar.



Share.

Comments are closed.

Exit mobile version