Edgar Cervantes / Autoridade Android
DR
- O recurso AI Overviews do Google foi flagrado aconselhando a adição de cola à pizza novamente.
- Desta vez, o modelo de IA fez referência a postagens de notícias que documentavam o incidente anterior.
- O gigante das buscas já reduziu as visões gerais de IA de aparecerem com tanta frequência nos resultados.
Numa reviravolta bizarra, a funcionalidade de pesquisa de IA do Google parece estar presa num ciclo recursivo do seu erro mais infame – recomendar cola na pizza. Depois de atrair críticas por sugerir que os usuários colem o queijo da pizza para evitar que ele escorregue, o AI Overviews agora está fazendo referência a artigos de notícias sobre esse mesmo incidente para… bem, ainda recomenda adicionar cola às pizzas.
O Google começou a testar seu recurso AI Overviews no ano passado, mas os usuários tiveram que aceitar antes de verem os resumos em seus resultados de pesquisa. No mês passado, porém, a empresa decidiu lançar o recurso ao público em geral após sua conferência de desenvolvedores I/O. Desde então, a empresa tem sido criticada depois que a IA ofereceu conselhos imprecisos e prejudiciais a usuários desavisados. Embora o exemplo da cola na pizza seja o mais conhecido, o AI Overviews também sugeriu comer pedras e “adicionar mais óleo ao fogo de óleo de cozinha”.
O Google admitiu a culpa apenas parcialmente na época, transferindo a culpa para as consultas de pesquisa que geraram respostas polêmicas em uma postagem de blog sobre o assunto. “Não há muito conteúdo na web que considere seriamente essa questão”, afirmou, referindo-se à pesquisa de um usuário por “Quantas pedras devo comer?” O Google também afirmou que muitas das capturas de tela virais eram falsas. No entanto, a empresa restringiu a exibição de visões gerais de IA em tantos resultados de pesquisa após a controvérsia.
Hoje, as visões gerais de IA aparecem em cerca de 11% dos resultados de pesquisa do Google, muito abaixo dos 27% nos primeiros dias do lançamento do recurso. No entanto, parece que a empresa pode não ter resolvido a raiz do problema que deu início a toda a polêmica.
Colin McMillen, um ex-funcionário do Google, percebeu que o recurso AI Overviews regurgitava seu erro mais infame: adicionar cola à pizza. Desta vez, a fonte não foi uma postagem obscura de um fórum de uma década atrás, mas sim artigos de notícias que documentavam o erro do próprio Google. McMillen simplesmente pesquisou “quanta cola adicionar à pizza”, uma consulta de pesquisa reconhecidamente absurda que se enquadra na defesa da empresa acima.
Não foi possível acionar uma visão geral da IA para aparecer com a mesma consulta de pesquisa. No entanto, o trecho em destaque do Google entrou na conversa com um texto em destaque sugerindo “um oitavo de xícara” de uma notícia recente. Os snippets em destaque não são alimentados por IA generativa, mas são usados pelo mecanismo de pesquisa para destacar possíveis respostas a perguntas comuns.
Alucinações em grandes modelos de linguagem não são uma ocorrência nova – logo após o lançamento do ChatGPT em 2022, ele se tornou famoso por gerar textos sem sentido ou enganosos. No entanto, a OpenAI conseguiu controlar a situação com proteções eficazes. A Microsoft deu um passo adiante com o Bing Chat (agora Copilot), permitindo que o chatbot pesquisasse na Internet e verificasse suas respostas. Esta estratégia produziu excelentes resultados, provavelmente graças ao “comportamento emergente” do GPT-4, que lhe confere alguma capacidade de raciocínio lógico.
Em contraste, os modelos PaLM 2 e Gemini do Google têm um desempenho muito bom em tarefas criativas e de escrita, mas têm lutado com a precisão factual, mesmo com a capacidade de navegar na Internet.