O Google Glass foi a primeira incursão da empresa em óculos inteligentes em 2012/2013, divulgando recursos como tela acionada por projetor, touchpad, câmera para fotos e gravação de vídeo, áudio por condução óssea e comandos de voz. Certamente foi uma primeira tentativa inovadora, mas sem sucesso, acabando por encontrar um pequeno nicho para si mesma no mundo dos negócios.
Parece que o Google ainda não está desistindo dos óculos inteligentes voltados para o consumidor, pois demonstrou um protótipo para um par de óculos sem nome em sua conferência de desenvolvedores I/O 2022. Os novos óculos parecem semelhantes aos óculos divulgados pela startup Focal, que foi adquirida pelo Google em 2020, com o gigante das buscas demonstrando traduções ao vivo e transcrições em tempo real.
Nosso guia: Tudo o que você precisa saber sobre o hardware do Google
Esta é certamente uma boa prova de conceito e não sabemos se o Google planeja comercializar este produto ou não. Mas a empresa precisa trazer muito mais para a mesa se quiser que um futuro par de óculos inteligentes tenha sucesso com um público mais amplo. Aqui estão alguns recursos que esperamos ver em um potencial sucessor do Google Glass.
Interpretação de linguagem de sinais
O próprio vídeo do Google de fato apresentou transcrição de fala em tempo real, demonstrando como pessoas com deficiência auditiva podem se beneficiar da tecnologia. Mas e a tradução e interpretação da língua de sinais?
Relacionado: Os melhores aplicativos de linguagem de sinais americana para Android
Parece super high-tech, mas o Google anunciou um jogo na web em dezembro de 2021 para ajudar as pessoas a aprender a linguagem de sinais. A empresa também anunciou a tecnologia de rastreamento manual no dispositivo em 2019 (veja as capturas de tela acima), estabelecendo as bases para aplicativos de linguagem de sinais. Então, adoraríamos ver a tradução de linguagem de sinais para linguagem escrita ou falada em um futuro par de óculos inteligentes do Google.
Controle seus gadgets domésticos inteligentes olhando para eles
Um dos avanços domésticos inteligentes mais interessantes nos últimos anos foi a tecnologia de banda ultralarga (UWB), encontrada em dispositivos como Apple, Google, Samsung e Xiaomi. A última empresa até postou uma demonstração interessante, mostrando que você pode controlar dispositivos domésticos inteligentes simplesmente apontando seu telefone para o dispositivo relevante.
Imagine olhar na direção da porta da frente para acessar o feed da câmera da sua campainha inteligente.
E se trouxermos essa tecnologia habilitada para UWB para um futuro par de óculos inteligentes do Google? Imagine simplesmente olhar para a fechadura da porta inteligente para trancá-la/desbloqueá-la ou olhar na direção da porta da frente para acessar o feed da câmera da campainha inteligente. Isso poderia, teoricamente, se estender a alto-falantes inteligentes tradicionais e telas inteligentes, pois olhar para um alto-falante inteligente equipado com UWB pode permitir a audição ou fornecer acesso visual a rotinas e outros comandos.
Mais leitura: Tudo o que você precisa saber sobre a tecnologia sem fio UWB
Filtros, filtros em todos os lugares
Hadlee Simons / Autoridade Android
Não é o exemplo mais útil de aprendizado de máquina, mas é difícil argumentar que os filtros não foram uma das principais forças motrizes por trás da tecnologia AR nos últimos cinco anos. Todos, do Snapchat e Instagram ao TikTok, usaram o aprendizado de máquina para oferecer filtros de rosto divertidos para uso em suas plataformas.
Vá mais fundo: Qual é a diferença entre AR e VR?
Esta não seria a primeira vez que vemos filtros AR e efeitos 3D em um par de óculos inteligentes, pois o Snapchat Spectacles também oferece alguns desses efeitos. No entanto, estes são geralmente limitados aos efeitos ambientais, em vez de oferecer filtros faciais. Portanto, uma abordagem mais aberta combinada com filtros de rosto seria ótima para criadores de outras plataformas mais populares, como TikTok e Instagram.
Uma grande atualização para a navegação
Isso parece óbvio, mas o Google Maps Live View é certamente um recurso que adoraríamos ver em um futuro par de óculos inteligentes. O Google introduziu esse recurso de realidade aumentada para o Maps no final de 2020, sobrepondo direções e outras informações de navegação no visor da câmera do telefone. Basta levantar o telefone e apontá-lo para receber instruções.
Mais sobre realidade aumentada: Os melhores aplicativos de realidade aumentada para Android
O Google Maps Live View também ganhou mais funcionalidades no ano passado, oferecendo rótulos de ruas virtuais, placas para indicar pontos de referência e a capacidade de visualizar detalhes sobre alguns lugares (por exemplo, comentários ou se eles estão ocupados).
Com óculos, a câmera segue sua visão para que você não precise ficar na rua segurando seu telefone para descobrir o mundo ao redor.
Tudo isso parece um ajuste natural para um par de óculos inteligentes da próxima geração, pois a câmera sempre estaria na sua cabeça de qualquer maneira e você não precisa ficar na rua segurando o telefone para descobrir o mundo ao redor. O Live View em óculos também parece uma experiência mais perfeita durante a condução, em vez de tirar os olhos da estrada – embora esperemos que uma implementação de vidro inteligente também não seja muito perturbadora.
Pesquisas de AR mais avançadas
O Google exibiu alguns avanços para o Google Lens e a pesquisa baseada em AR na I/O 2022, ou seja, várias pesquisas e exploração de cenas. E ambos parecem adequados para um futuro par de óculos inteligentes do Google.
A exploração de cenas é outra ferramenta de pesquisa AR bacana, pois você pode segurar a câmera do telefone para pesquisar o mundo ao seu redor. Isso parece pedestre, mas é mais expansivo do que a funcionalidade de pesquisa visual existente do Lens, levando em consideração vários objetos em uma cena em vez de apenas um. Você também obtém informações úteis sobrepostas à cena e aos produtos. O Google deu o exemplo de alguém procurando chocolate no corredor de um supermercado. Você não apenas obterá classificações para cada barra de chocolate, mas o recurso também descobrirá as palavras-chave desejadas, como chocolate “escuro” ou “sem nozes”.
Outros recursos do Lens, como copiar/colar palavras do mundo real, destacar pratos populares em cardápios de restaurantes e traduzir idiomas estrangeiros, também parecem ótimos acréscimos a uma nova versão do Google Glass. Portanto, dedos cruzados para que um produto futuro realmente ofereça todos esses recursos.
A maioria das coisas que seu smartwatch faz
Kaitlyn Cimino / Autoridade Android
Além de saúde e fitness, os smartwatches se destacam em várias outras áreas devido à sua natureza vestível. Essas tarefas incluem atender chamadas telefônicas, oferecer controles de música para seu telefone e editar/verificar listas de compras de supermercado. Isso além de recursos mais mundanos, como espelhamento de notificações, visualização de entradas de calendário e exibição de previsões do tempo.
Gostaríamos de ver os óculos inteligentes do Google da próxima geração que reduzam a necessidade de pegar nossos telefones para todas as tarefas.
Portanto, gostaríamos de ver os óculos inteligentes do Google da próxima geração seguirem a sugestão dos smartwatches Wear OS a esse respeito, reduzindo a necessidade de pegar o telefone para todas as tarefas. Também pudemos ver algumas funcionalidades leves de condicionamento físico chegando a esses óculos, como contagem de passos para caminhada e rastreamento por GPS para ciclismo.
Guia do comprador: Os melhores smartwatches do mercado hoje
O que está impedindo os novos óculos inteligentes?
Definitivamente argumentaríamos que o momento nunca foi melhor para um tipo de sucessor do Google Glass. Para começar, a realidade aumentada melhorou muito desde os primeiros dias em que exigiam hardware dedicado. O próprio conjunto de realidade aumentada ARCore do Google requer apenas uma câmera e alguns sensores, como um giroscópio, para sobrepor animais e objetos à sua frente.
O processamento de linguagem natural é outra área em que o gigante das buscas fez avanços impressionantes, em comparação com a era original do Google Glass pré-Assistente. O chipset Tensor nos telefones Pixel 6 permite até mesmo a digitação de voz offline, destacando o quão longe chegamos na última década. Esta é outra área em que um futuro par de óculos inteligentes pode ver melhorias notáveis.
O que você mais deseja ver nos novos óculos inteligentes do Google?
6 votos
Também houve um grande aumento na potência desde o primeiro Google Glass em 2012/2013, que originalmente tinha um chipset dual-core e 2 GB de RAM. O próprio Google aproveitou esse aumento de energia no Glass 2 Enterprise Edition de 2019, com um processador Snapdragon XR1. Esses avanços de poder definitivamente podem chegar aos espetáculos de nível de consumidor também.
Em outras palavras, as peças tecnológicas do quebra-cabeça – tanto hardware quanto software – parecem estar se unindo para uma continuação do Google Glass. Mas este produto viverá e morrerá por seus casos de uso, portanto, esperamos que o Google adicione alguns dos recursos da nossa lista de desejos acima, se estiver visando um lançamento comercial em breve.