No início desta semana, durante a palestra da WWDC, a Apple mostrou seu novo iOS 26. Pela primeira vez desde o iOS 7 em 2013, a Apple está renovando a aparência e a sensação do sistema operacional, introduzindo uma linguagem de design aero-esquelosa muito chamada “Liquid Glass” (RIP Windows Vista) e, já que essa foi a nova coisa flashy na keytote, foi
No entanto, também vimos teasers de outros novos recursos que não estão recebendo o mesmo nível de atenção. Dentro do segmento no iOS, por exemplo, Billy Sorrentino mostrou uma nova capacidade da inteligência visual da AI da Apple, que é chamada, de maneira simples, pesquisa de imagem. A maneira como funciona é que você tira uma captura de tela de tudo o que vê na tela do seu iPhone. Depois de ter a captura de tela, você pode pressionar o botão de pesquisa de imagem no canto inferior direito. Usando a IA, a inteligência visual digitalizará a captura de tela e procurará coisas que vê ou criará eventos de calendário para datas e horários revelados na imagem.
Se isso soa familiar, é porque o círculo do Google para pesquisar faz exatamente a mesma coisa e está disponível há mais de um ano. No entanto, não estou trazendo isso para fazer o habitual “LOL, maçã roubando do Android!” reação. Estou trazendo à tona porque, com base no que vimos no vídeo, a pesquisa de imagens no iOS 26 parece estranhamente ruim.
Inteligência Visual no iOS 26: Circle para pesquisar, mas ruim

Durante a palestra (começa às 38:27 no vídeo incorporado no topo), Sorrentino faz a pesquisa de imagens parecer tão fácil e poderosa. Em sua primeira demonstração, ele puxa um feed de mídia social. Existem várias postagens que são apenas texto e, em seguida, uma imagem. Ele faz uma captura de tela, inicia a pesquisa de imagens e nos diz, o público, que está interessado na jaqueta que o modelo está usando no post de mídia social.
A própria demonstração da Apple neste círculo para o recurso de pesquisa foi atormentada por respostas ruins e uma interface do usuário ruim.
A Pesquisa de Imagens faz o que é e puxa uma coleção de imagens que compartilham semelhanças com o post de mídia social. Observe que ele não procura a jaqueta. O software nem sabe que Sorrentino está interessado na jaqueta porque nunca indicou isso. Tudo o que o software faz é encontrar imagens que se parecem com a de sua captura de tela, e Sorrentino age como se este é uma maravilha. Senhor, eu uso Tineye para fazer isso desde 2008.
Além disso, observe que a pesquisa de imagem ignorou tudo o mais acontecendo na captura de tela. Não procurou o emoji que aparece em uma das postagens, nem procurou algo relacionado às inúmeras imagens de avatar. De alguma forma, sabia pesquisar apenas uma imagem, o que parece algo que nunca acontecerá na vida real.

Na próxima demonstração, Sorrentino encontra uma imagem de uma sala com uma lâmpada em forma de cogumelo. Ele inicia a pesquisa de imagens novamente, mas desta vez diz ao sistema para investigar a lâmpada especificamente. Ele faz isso rabiscando a lâmpada com o dedo. Observe que ele não circula a lâmpada, porque isso seria uma oferta morta da intenção da Apple aqui, mas tanto faz.
Uma vez ele círculos para pesquisar Rabisca na lâmpada, ele vê outra lista de imagens. Notar algo estranho, no entanto? Nenhuma das lâmpadas da lista visível é a da foto original! Mesmo o primeiro resultado, o que ele escolhe, claramente não é a lâmpada que ele estava procurando, mas Sorrentino avança para adicioná -la aos seus favoritos do Etsy, como se esse fosse um grande sucesso. Meu cara, essa não é a lâmpada. O sistema falhou e você está fingindo que foi bem -sucedido.
Você precisa usar suas mãos? É como o brinquedo de um bebê!

Na demo final de Sorrentino, ele usa a inteligência visual para deduzir o que uma foto mostra e fazer uma pergunta sobre isso. No exemplo, a foto é de um pequeno instrumento de cordas. Ele captura a captura de tela e digita uma pergunta para chatgpt. Ele descobre que a foto é de bandolim e que este instrumento foi usado em muitas músicas populares de rock.
A coisa flagrante aqui é que Sorrentino digita sua pergunta. Isso não parece muito conveniente. Com o círculo para pesquisar, posso simplesmente fazer minha pergunta verbalmente. Mesmo durante a demonstração, é estranho enquanto o observamos se destacando sobre quais músicas de rock usam o instrumento.
Por fim, é isso que foi tão alarmante sobre todo esse segmento. Esta é uma demonstração pré-gravada da Apple, para que você saiba que funcionará melhor aqui do que na vida real. Mas mesmo a demonstração mostra que está lamentavelmente atrás do círculo para pesquisar em forma e função. Estremeço ao pensar em como funcionará bem quando ele realmente chegar.
Toda essa demonstração foi outro exemplo de Apple estar lamentavelmente atrás da curva quando se trata de implementações úteis das ferramentas de IA.
Isso é apenas outra coisa a colocar na pilha quando se trata de Apple soltar a bola da IA. Era tarde para o jogo, e tudo o que tentou fazer foi um elevador direto do Google, Android ou outros OEMs do Android, ou confiado no Openai para fazer o trabalho real. Observar essa demonstração de busca de imagens foi como assistir a um jogador de futebol muito confiante tropeçar no grande jogo e ainda tentar agir como se eles acertassem.
Se nada mais, porém, o segmento provou centenas de vezes sobre esse círculo para pesquisar é um dos maiores sucessos do Google em anos. Quantas vezes o Google fez algo que a Apple tentou riff e falhou tão difícil? É verdade que darei à Apple o benefício da dúvida por enquanto. É possível que a pesquisa de imagens possa ser muito melhor quando for estável em setembro com a série iPhone 17. Mas, com base na demo de hoje, seu clone para pesquisar é um fracasso.