
Ryan Haines / Autoridade Android
Tl; Dr
- O Google anunciou que o modo AI na pesquisa está sendo lançado amplamente nos EUA.
- O modo também está obtendo novos recursos, incluindo pesquisas profundas, a capacidade de pesquisar o que você vê e muito mais.
- Esta notícia ocorre alguns meses depois que o IA Mode estreou como um experimento.
O Google anunciou um experimento de modo de IA em pesquisa no início deste ano, permitindo que você faça um mergulho profundo em uma consulta de pesquisa e faça perguntas de acompanhamento. Agora, a empresa revelou que esse modo está se expandindo e confirmando também uma variedade de adições.
O Google anunciou em sua conferência de E/S que o modo AI está sendo lançado amplamente nos EUA. Você verá a opção na barra de pesquisa ao lado de outras ferramentas de pesquisa, como imagens, notícias e vídeos. O Google diz que esse modo divide sua pergunta em subtópicos e também realiza várias consultas simultâneas para você.
O Modo de AI usou inicialmente o modelo Gemini 2.0, mas o Google confirmou que agora é alimentado pelo Gemini 2.5. Este modelo AI atualizado também alimenta visões gerais da IA. O Google confirmou uma variedade de outras adições que chegam ao modo IA.
Pesquisa profunda, Projeto Astra e muito mais

O Google trouxe um profundo recurso de pesquisa para Gemini no final do ano passado, permitindo que o chatbot elabore efetivamente um relatório de pesquisa para os usuários. Agora, o Google confirmou que o modo AI está realmente obtendo uma opção igualmente aprofundada (vista acima). O Google diz que o recurso de pesquisa profunda pode “emitir centenas de pesquisas, raciocinar através de informações díspares e criar um relatório totalmente citado em nível especializado em apenas alguns minutos”. Pelo que vale a pena, o colega Mitja Rutnik achou que o Deep Research Feather de Gemini era acertado e acertado, dependendo do assunto, de modo que isso pode ser algo a ter em mente aqui.
A empresa anteriormente trouxe seus recursos do Project Astra para o Gemini Live, permitindo que o chatbot dê respostas sobre o que ele vê através da câmera do seu telefone. Agora, o Google está trazendo esses mesmos recursos para o modo IA e chamando -o de pesquisa ao vivo. Isso permitirá que você converse com a pesquisa sobre o que você está vendo. Esse recurso pode ser acessado tocando no ícone “LIVE” no modo AI ou no Google Lens.
A gigante da pesquisa anunciou os recursos da Agentic AI no ano passado como parte de seu experimento do Project Mariner, permitindo que a Gêmeos automatize algumas tarefas no seu navegador da web. Agora, o Google confirmou melhorias nesse sentido.
O Google expandiu esta funcionalidade da IA:
O Project Mariner agora inclui um sistema de agentes que podem concluir até 10 tarefas diferentes por vez. Esses agentes podem ajudá -lo a procurar informações, fazer reservas, comprar coisas, pesquisar e muito mais – tudo ao mesmo tempo.
Esta suíte do Project Atualizada do Project Mariner está agora disponível para os assinantes do Google AI Ultra nos EUA. Também é usado no modo IA para permitir que você compre ingressos e faça reservas.
Por fim, o Google diz que o modo AI agora pode suportar sugestões personalizadas com base no histórico de pesquisa. Você também pode conectar outros aplicativos, como o Gmail, ao modo AI para obter resultados mais personalizados. O Google diz que você pode procurar “coisas para fazer em Nashville neste fim de semana com amigos, somos grandes foodies que gostam de música”. O modo AI mostrará restaurantes com assentos ao ar livre com base nas reservas e pesquisas anteriores de restaurantes. Também usará suas confirmações de voo e hotel para oferecer sugestões para eventos próximos enquanto você estiver na cidade.