DR
- O Google respondeu ao fiasco das visões gerais da IA, abordando preocupações sobre resultados de pesquisa bizarros e perigosos.
- O Google atribuiu muitas capturas de tela compartilhadas como falsas, mas reconheceu alguns erros genuínos devido a interpretações errôneas de consultas e conteúdo satírico.
- Em resposta, o Google está refinando os métodos de detecção, limitando o conteúdo de sátira e humor e refinando os gatilhos para visões gerais de IA.
A Search Generative Experience (SGE) do Google, lançada no ano passado para aprimorar as consultas de pesquisa com resumos e respostas gerados por IA, culminou recentemente com o lançamento de seu novo recurso AI Overviews nos Estados Unidos. A nova ferramenta de pesquisa, projetada para revolucionar a pesquisa, fornecendo resumos concisos gerados por IA para consultas complexas, encontrou-se em maus lençóis apenas uma semana após seu lançamento nos EUA.
A Internet foi inundada com respostas de visão geral da IA que variam de bizarras a preocupantes. Alguns dos mais notáveis aconselharam os usuários a comer pedras para obter nutrientes essenciais, usar cola para fixar o queijo na pizza e beber urina para tratar pedras nos rins. Num caso particularmente alarmante, a IA sugeriu saltar de uma ponte como solução para a depressão.
O que deu errado com as visões gerais da IA?
Em uma postagem no blog hoje, o Google respondeu à polêmica e detalhou as medidas que está tomando para resolver o problema. A empresa reconheceu que, apesar dos extensos testes de pré-lançamento, a aplicação no mundo real das visões gerais de IA, com milhões de pesquisas novas e inesperadas, expôs falhas que os testes de pré-lançamento não previram.
O Google atribuiu alguns desses erros à confiança da IA em artigos satíricos e postagens de trolls de fóruns como o Reddit. A empresa também sugeriu que muitas das capturas de tela amplamente compartilhadas desses resultados errôneos eram falsas ou fabricadas, alegando que essas visões gerais de IA específicas nunca apareceram.
O Google explica ainda que o AI Overviews não está simplesmente gerando resultados com base em dados de treinamento. O recurso é integrado aos principais sistemas de classificação da web do Google e foi projetado para priorizar a identificação de resultados relevantes e de alta qualidade do índice da web. No entanto, a empresa admite que o recurso não é perfeito (duh). Ele ainda pode interpretar mal as consultas, entender mal as nuances ou encontrar informações limitadas, o que levou aos erros que todos nós vimos.
O que o Google está fazendo a respeito?
Para resolver esses problemas, o Google afirma ter implementado diversas melhorias técnicas. Isso inclui melhores mecanismos de detecção para consultas “sem sentido”, limitando a inclusão de conteúdo de sátira e humor, restringindo o uso de conteúdo gerado pelo usuário em respostas potencialmente enganosas e refinando os gatilhos para quando as visões gerais de IA devem aparecer.
Também foram introduzidas proteções aprimoradas para tópicos críticos, como notícias e saúde, para garantir maior precisão e confiabilidade. A empresa afirma ainda que está monitorando ativamente o feedback e os relatórios externos para remover rapidamente quaisquer visões gerais de IA que violem as políticas de conteúdo.
Basicamente, parece que as visões gerais de IA não irão desaparecer tão cedo. A empresa continua otimista quanto ao potencial da IA nas pesquisas e está confiante de que melhorias contínuas levarão a uma ferramenta mais confiável e benéfica para os usuários. Dito isto, se você não está muito interessado em tornar a IA do Google parte do seu processo de pesquisa, existem maneiras de desativá-la completamente.