Ryan Haines / Autoridade Android
Uso o Google Lens desde que me lembro. Esteja eu tentando descobrir qual versão de um tênis de corrida Nike estou olhando ou se a planta que acabei de esbarrar é hera venenosa, adoro usar o Google Lens para obter uma resposta rápida. Então, quando a Apple anunciou o Visual Intelligence para o iPhone 16 como parte do lançamento do Apple Intelligence, fiquei intrigado. Parecia quase exatamente igual à experiência que obtive do Google, mas com respostas adicionais fornecidas pelo ChatGPT. Esperei pacientemente pela chegada da versão beta pública do iOS 18.2 e comecei a explorar o capítulo mais recente da batalha entre Apple e Google. Veja como o Apple Visual Intelligence se compara ao Google Lens.
Ah, ei, um uso para o controle da câmera
Ryan Haines / Autoridade Android
Tive uma jornada interessante com o controle de câmera do iPhone 16 Pro até agora. Depois de cerca de uma semana, passei de grandes esperanças a ignorá-lo em grande parte, decidindo que a Apple tinha algum trabalho a fazer antes de eu estar pronto para amar um controle manual. Bem, alguém na Apple deve ter ouvido minhas reclamações porque a maneira mais fácil de ativar a Inteligência Visual da Apple é pressionando longamente o mesmo Controle de Câmera – a única maneira de ativá-lo, na verdade.
Sim, duas versões da alternativa Google Lens da Apple foram lançadas com iOS 18.2 – uma para usuários do iPhone 16 e outra para todos os demais (ou pelo menos aqueles com um iPhone 15 Pro). Se você tiver o iPhone 16 Pro, terá uma versão do Visual Intelligence que funciona parcialmente no dispositivo, identificando tudo o que sua câmera vê e pesquisando no Google por imagens relacionadas. Caso contrário, você obterá uma versão fora do dispositivo com tecnologia ChatGPT – mais sobre isso em um minuto.
Até agora, estou adorando a ativação do Visual Intelligence baseada em hardware da Apple. Requer apenas um toque longo o suficiente para que você provavelmente não o ative por acidente, ao contrário do Type to Siri, que é acionado acidentalmente na maioria das vezes. Ao usar a Inteligência Visual, o Controle da Câmera continua a funcionar como um controle manual da câmera, permitindo aumentar ou diminuir o zoom e acionar o obturador para procurar uma imagem, embora eu ache que requer uma pressão um pouco mais firme do que quando usei no próprio aplicativo da câmera. No entanto, isso pode estar na minha imaginação, já que estou acostumado a pressionar até a metade, permitindo-me alternar entre estilos fotográficos, profundidade de campo e exposição, em vez de apenas acionar o obturador.
Posso até preferir o gatilho de controle de câmera da Apple à configuração atual do Lens do Google. Continuo acessando o aplicativo Pixel Camera no meu Pixel 9 Pro, esperando ativar o Google Lens com um simples toque, apenas para lembrar que ele não está lá. Em vez disso, tive que me treinar para acessar o widget do Google Assistente que fica na parte inferior da tela inicial. Tecnicamente, não é mais difícil de alcançar do que o próprio aplicativo Pixel Camera, mas continuo procurando o aplicativo errado.
Questões? Pergunte ao ChatGPT
Ryan Haines / Autoridade Android
Se você já usou o Google Lens, mergulhar no Apple Visual Intelligence provavelmente lhe parecerá familiar. A interface geral é quase idêntica e o processo de apontar a câmera e pressionar o botão do obturador é o mais familiar possível. Na verdade, você pode até obter alguns dos mesmos resultados ao pesquisar, porque ambas as plataformas usam o Google como mecanismo padrão. No entanto, é como os dois mecanismos de pesquisa visual se comportam quando você precisa de mais do que uma pesquisa básica de imagens que os diferencia.
Com o Google Lens, você tem três opções por padrão – o botão Lens, o Google Translate e um auxiliar de lição de casa para equações matemáticas. Cada um tem sua finalidade e estão todos alinhados na borda inferior para facilitar o acesso. Até agora, usei dois dos três – não tenho filhos, nem sou estudante – mas descobri que eles são tão simples quanto podem ser. Usar o Lens é exatamente como você espera, basta apontar a câmera e pesquisar, mas o recurso Traduzir salva vidas. Eu o usei para tudo, desde traduzir cartas de Pokémon estrangeiros até obter uma versão em inglês de um menu holandês, e é muito fácil. Você também pode recorrer ao Google para procurar mais informações sobre o que quer que sua lente esteja vendo.
ChatGPT em Inteligência Visual é como o Google Translate, ajuda com a lição de casa e muito mais, tudo em um só.
Por outro lado, o Apple Visual Intelligence oferece apenas dois botões – um para Pesquisar e outro para Perguntar. Na maior parte, a Pesquisa é muito parecida com a experiência geral de usar o Google Lens, mas é um pouco melhor automatizada. Se você apontar para um restaurante ou loja, o Visual Intelligence abrirá automaticamente um menu pop-up com horários, avaliações e opções como ligar para a empresa ou abrir o site. Para obter os mesmos resultados do Google Lens, você deve pressionar o botão do obturador e pesquisar o que está vendo.
No entanto, o recurso Ask da Apple é o que torna a Inteligência Visual interessante. É desenvolvido com ChatGPT e funciona como botões de lição de casa e tradução (e um botão de pesquisa do Google), tudo em um. Quer eu precisasse de ajuda para cuidar dos girassóis, como visto acima, ou para resolver um problema de matemática – o que é mais difícil do que você esperaria depois de vários anos fora da escola – o ChatGPT parecia ter uma solução bastante rápida para mim. Talvez a única vez que pareci confundir o ChatGPT foi quando quis usar a metade Pesquisar da Inteligência Visual para encontrar o nome de um restaurante local e depois mudar para a metade Perguntar para descobrir o que havia no menu. Ele habilmente percebeu que eu estava procurando um bistrô, mas não consegui encontrar o menu real do restaurante, sugerindo coisas que um bistrô poderia ter.
Com que frequência você usa uma pesquisa visual como o Google Lens?
0 votos
Apple Visual Intelligence vs Google Lens: Qual é o melhor?
Ryan Haines / Autoridade Android
Então, se o Google Lens e o Visual Intelligence são iguais, mas diferentes, como você deve escolher entre eles? Se ignorarmos o fato de que a Inteligência Visual da Apple só funciona em alguns iPhones, a melhor maneira de decidir é testá-los entre si – que foi exatamente o que eu fiz. Levei meu iPhone 16 Pro e Pixel 9 Pro para uma pequena caminhada por Baltimore para ver como eles lidariam com algumas tarefas básicas e perguntas simples.
Primeiro, parei na minha livraria independente local para verificar o horário. Ao acessar o Visual Intelligence, ele reconheceu imediatamente minha localização e trouxe automaticamente informações relacionadas à loja, conforme mostrado abaixo. A Apple acumulou a pontuação atual do Yelp com algumas fotos na parte superior e botões convenientes para ligar e verificar o site ao meu alcance. Por outro lado, o Google Lens exigia que eu pressionasse o botão do obturador para procurar a vitrine antes de me fornecer qualquer informação. Quando o fiz, recebi um rápido resumo das avaliações do Google e se a loja estava aberta ou não, mas foi um pouco mais difícil alcançar os botões que forneceriam mais informações.
De lá, desci o quarteirão até um jardim local nos fundos de uma casa histórica. Estamos nos aproximando rapidamente do fim do outono aqui no Meio-Atlântico, então não havia muita vida para explorar, mas encontrei algumas plantas de girassol agarradas aos últimos pedacinhos de vida. Porém, estou muito longe de ser um botânico, então precisei da Inteligência Visual e do Google Lens para me dizer exatamente que tipo de girassóis eles eram. A Apple rapidamente identificou a planta como o girassol de folhas finas (que é como eu a descreveria) e ofereceu vários links para sites relacionados na pesquisa de imagens.
Lens, por outro lado, teve uma ideia diferente. Voltei convencido de que eu estava olhando para uma alcachofra de Jerusalém, que é um pouco mais invasiva, mas também boa para alimentar borboletas. A alcachofra de Jerusalém também tem folhas um pouco diferentes, mas não pareciam combinar com as que eu estava olhando. Depois de mais pesquisas, quando voltei para casa da caminhada, ainda não tenho certeza de qual pesquisa visual estava correta, então acho que foi bom estar perguntando sobre flores em vez de cogumelos potencialmente venenosos. No entanto, ainda darei alguns pontos à Apple por oferecer alguns conselhos bastante razoáveis sobre como cuidar dos girassóis, caso você decida cultivá-los sozinho. Certamente foi mais fácil pedir conselhos ao ChatGPT e obter uma resposta rápida do que ir ao Google e fazer minha própria pesquisa.
ChatGPT é bom, mas o Google Lens é muito, muito mais acessível para a maioria das pessoas.
No final das contas, foi assim que foi minha comparação direta – toda vez que o Google Lens ou o Visual Intelligence falhavam, eu dizia: “Ah, talvez o outro é melhor”, apenas para ver os resultados mudarem no próximo teste. Por mais que eu preferisse o reconhecimento automático da loja da Apple, preferia o uso de suas próprias avaliações pelo Google em vez das do Yelp. Por mais bom que seja o Google ter um botão de lição de casa dedicado, uma boa parte dos usuários do Lens provavelmente nunca precisará dele. Não seria justo chamar esta competição de empate – não acho que seja – mas devo imaginar que seria difícil convencer os usuários do iPhone para o Lens ou os usuários do Pixel para a Inteligência Visual.
Talvez a melhor maneira de decidir entre os dois seja ver qual deles você pode acessar. O Google Lens é muito mais acessível, com suporte para praticamente qualquer dispositivo que possa baixar o Google Assistant. Isso significa que funcionará no seu iPhone, no seu telefone Samsung econômico ou na maioria dos tablets – mas não no Google TV ou no alto-falante Nest. Já a Inteligência Visual da Apple só funciona na série iPhone 16 e nos dois modelos do iPhone 15 Pro e, mesmo assim, alguns dos recursos ficam reservados para quem tem o Controle de Câmera.
Para mim, é uma limitação bastante estrita e que me levaria a levar a maioria das pessoas à universalidade do Google Lens. No entanto, os resultados da Apple estão se atualizando rapidamente e, com um suporte um pouco mais amplo, a Inteligência Visual provavelmente poderia desafiar a superioridade da busca visual do Google.
Google Pixel 9 Pro
Recursos impressionantes com tecnologia de IA
Excelente qualidade de construção
Câmeras flexíveis e capazes
Compromisso de atualização confiável
Apple iPhone 16 Pro
Excelente hardware
Câmeras flexíveis
Suporte de software sólido