Bogdan Petrovan / Autoridade Android
O Google lançou seu novo recurso AI Overviews nos Estados Unidos esta semana, e dizer que o lançamento não foi tranquilo seria um eufemismo. A ferramenta tem como objetivo aumentar algumas pesquisas do Google com uma resposta de IA à consulta, evitando assim que você tenha que clicar mais. Mas muitos dos resultados produzidos variam de bizarros e engraçados a imprecisos e totalmente perigosos, a ponto de o Google realmente considerar encerrar o recurso.
A questão é que o modelo do Google funciona resumindo o conteúdo de alguns dos principais resultados obtidos pela consulta de pesquisa, mas todos sabemos que os resultados da pesquisa não são listados em ordem de precisão. Os sites mais populares e aqueles com melhor otimização de mecanismo de pesquisa (SEO) aparecerão naturalmente no início da lista, independentemente de fornecerem uma boa resposta ou não. Cabe a cada site decidir se deseja fornecer informações precisas aos seus leitores, mas quando a Visão Geral da IA regurgita conteúdo que pode colocar em risco o bem-estar de alguém, isso está no Google.
A cebola o fundador Tim Keck (@oneunderscore__) deu um exemplo disso no X ontem. Em sua postagem, a primeira captura de tela mostrava a resposta à consulta de pesquisa: “Quantas pedras devo comer por dia?” no qual o resumo da Visão Geral da IA afirmava: “De acordo com os geólogos da UC Berkley, as pessoas deveriam comer pelo menos uma pequena pedra por dia”.
A segunda captura de tela mostrava a manchete do artigo de sua própria publicação, da qual parece que a IA do Google extraiu o conselho. A cebola é um popular meio de comunicação satírico que publica artigos inventados para efeito cômico. Naturalmente, ele aparece próximo ao topo da pesquisa do Google para essa consulta incomum, mas não deve ser usado para aconselhamento dietético ou médico.
Em outro exemplo viral de X, Peter Yang (@peteryang) mostra um exemplo de visão geral da IA do Google respondendo à consulta “o queijo não gruda na pizza” com uma resposta que inclui a adição de “1/8 xícara de cola não tóxica ao molho. ” Yang ressalta que a fonte desse conselho terrível parece ser um comentário de 11 anos no Reddit de um usuário chamado f***smith.
Por mais engraçado que possamos achar essas falhas calamitosas do novo recurso do Google, é algo com que a empresa deveria estar muito preocupada. O bom senso diz à grande maioria de nós que não devemos comer cola (não tóxica ou não) ou pedras, mas é concebível que nem todos demonstrem esse nível básico de raciocínio. Além disso, outros conselhos ruins da IA do mecanismo de busca podem ser mais convincentes, possivelmente fazendo com que as pessoas se machuquem.
Com que frequência o AI Overview responde a perguntas como esta?
Pelo menos até agora, nem todas as pesquisas são atendidas por uma resposta de visão geral da IA. Seria o início de uma solução se o Google calibrasse o recurso para não aparecer em consultas relacionadas a questões médicas ou financeiras, mas certamente não é o caso no momento em que este artigo foi escrito.
Mostrando os resultados em uma postagem X, o usuário Mark Traphagen (@marktraphagen) executou 50 consultas relacionadas a finanças, saúde ou ambas para ver quantas gerariam uma resposta de visão geral da IA.
Uma resposta de IA foi gerada em 36% das consultas – principalmente aquelas relacionadas à saúde ou aconselhamento médico solicitado. Entre elas estavam questões potencialmente sérias, como “sinais de derrame” e “como tratar uma queimadura”. Estas são pesquisas que poderiam ser realizadas com urgência, e a qualidade da resposta poderá ter um impacto de mudança de vida, para melhor ou para pior.
O que mais a visão geral do Google AI está errando?
Esta falha preocupante da IA está sendo terrivelmente exposta online. O X sozinho está repleto de capturas de tela da visão geral da IA do Google dando conselhos médicos ruins ou apenas respostas flagrantemente erradas a perguntas. Aqui estão mais alguns exemplos:
1. Em outro conselho de saúde altamente duvidoso, postado pelo usuário ghostface tio (@dril), o AI Overview informa que “você deve beber pelo menos 2 litros (2 litros) de urina a cada 24 horas”.
2. Em um dos exemplos mais perigosos, o usuário Gary (@allgarbled) posta uma captura de tela da visão geral da IA respondendo à pesquisa “Estou me sentindo deprimido” com uma resposta que incluía a sugestão de cometer suicídio. Pelo menos, neste caso, a IA apontou que foi sugestão de um usuário do Reddit, mas provavelmente é melhor não mencionar isso.
3. Os maus conselhos de saúde não se restringem aos humanos. @napalmtrees captura a visão geral da IA, sugerindo que é sempre seguro deixar um cachorro em um carro quente. Ele corrobora essa informação apontando que os Beatles lançaram uma música com esse título. Este não é o grande ponto que o modelo pensa ser e é uma indicação preocupante do que ele classifica como fonte.
4. Uma notícia melhor para o melhor amigo do homem, a AI Overview parece acreditar que um cachorro jogou na NBA. O usuário X Patrick Cosmos (@veryimportant) viu este.
5. Joe Maring (@JoeMaring1) no X destaca o resumo sinistro da AI Overview de como Sandy Cheeks do Bob Esponja supostamente morreu. Não me lembro desse episódio.
O que deveria acontecer agora?
Quer fosse previsível ou não, exemplos amplamente compartilhados como esses deveriam ser suficientes para que o Google considerasse a remoção do recurso Visão Geral da IA até que fosse testado com mais rigor. Não só oferece conselhos terríveis e potencialmente perigosos, mas a exposição destas falhas corre o risco de prejudicar a marca numa altura em que ser conhecido por estar na vanguarda da IA é aparentemente uma prioridade máxima no mundo da tecnologia.
É compreensível como a resposta bruta é agrupada, conforme aludimos acima. A vontade do Google de implementar isso rapidamente também não é surpreendente, com outros LLMs como o ChatGPT oferecendo respostas com um clique a menos do que o modelo clássico de mecanismo de busca. Mas o que é desconcertante na Visão Geral da IA é que ela não parece estar conduzindo sua própria análise da resposta bruta que seleciona. Em outras palavras, você esperaria que uma boa IA pudesse reconhecer que existe uma resposta importante que aconselha as pessoas a comerem pedras, mas depois analisar o conselho e vetá-lo com base no fato de que as pedras não são comida. Este é apenas o meu entendimento leigo da tecnologia, mas cabe aos especialistas da folha de pagamento do Google encontrar uma solução.
Enquanto aguardamos o próximo passo do Google, você pode decidir que é melhor seguir o exemplo de Autoridade Android Andrew Grush desativando a visão geral da IA. Caramba, se este artigo ficar alto o suficiente nas classificações de pesquisa do Google, talvez o próprio AI Overview comece a sugerir que ele seja encerrado.