
C. Autoridade Scott Brown / Android
Tl; Dr
- Visão geral do Google AI está tentando explicar com confiança as frases absurdas, com grande hilaridade.
- Idealmente, isso não aconteceria, porque as visões gerais da IA só devem aparecer quando o Google está confiante na qualidade de sua saída.
- A linha entre novas frases e frases sem sentido é uma boa, e é fácil ver a lógica que o Google tenta usar para divinar o significado.
Se você ainda não ouviu falar sobre esse fenômeno, as pessoas estão pedindo à pesquisa do Google para encontrar o significado por trás de várias frases. Para idiomas reais, isso pode ser realmente útil, mas o problema é que o Google também está bastante disposto a sonhar suas próprias explicações para expressões que não são verdadeiras idiomas – apenas sem sentido. Pergunte ao Google o que significa “um gato vazio vale o resgate de um cachorro”, e fará o seu maldito extrair alguma aparência de significado lá, mesmo que seja o sangue espremendo de uma pedra.
Entramos em contato no Google para ver o que estava acontecendo aqui e a empresa estabelece seu caso nesta declaração oficial:
Quando as pessoas fazem pesquisas absurdas ou ‘falsas’, nossos sistemas tentarão encontrar os resultados mais relevantes com base no conteúdo limitado da Web disponível. Isso é verdade para a pesquisa em geral e, em alguns casos, as visões gerais da IA também serão acionadas em um esforço para fornecer um contexto útil. As visões gerais da IA são projetadas para mostrar as informações apoiadas pelos principais resultados da Web, e sua alta taxa de precisão está em pé de igualdade com outros recursos de pesquisa, como trechos em destaque.
Parece que o grande problema é que nem sempre é óbvio o que essas pesquisas de “premissa falsa” são em primeiro lugar. A linguagem é uma coisa em evolução, e novas expressões surgem o tempo todo. As pessoas também são propensas a mutuamente ou se lembrar de coisas e podem não procurar uma frase exatamente como se deve ser usada.
O que parece claro na explicação que o Google fornece juntamente com essas consultas absurdas é que ela ainda está se aproximando delas logicamente, tentando quebrar cada parte e descobrir o que o falante poderia ter significado:

E honestamente, não faz um trabalho meio ruim. Para novas expressões, a Visão geral da IA tem os recursos para se basear para pelo menos dar uma chance de lutar de descobrir o significado pretendido. Então, como você diz a diferença entre uma nova expressão genuína e um absurdo – uma situação que o Google se refere como um “Dados vazios?”
Isso é complicado, e o Google nos diz que ele tenta apenas uma visão geral da IA como essa quando a pesquisa tem um certo grau de confiança de que um resumo seria útil e de alta qualidade. Também está constantemente refinando esse corte e, embora essas falhas públicas possam parecer bobas e divertidas para nós, elas fornecem informações úteis ao Google sobre os casos de borda em que as visões gerais da IA lutam para se apresentar conforme desejado.
Uma dessas “alucinações” por si só é engraçada, com certeza, mas no contexto maior dos esforços da IA do Google, podemos absolutamente apreciar as tentativas genuínas que os sistemas da empresa estão fazendo para se comunicar com sucesso com os usuários. Quando intencionalmente tentamos tropeçar, devemos nos surpreender que ele tropeça?
Talvez a parte mais frustrante no momento seja que seja menos do que sempre óbvio o quão confiante do Google está em qualquer um dos resultados da visão geral da IA que apresenta, e um usuário pode não entender imediatamente se o Google realmente citando a resposta de outra pessoa ou apenas fazendo o melhor palpite. Quanto mais claramente é capaz de comunicar que, com os usuários, menor o problema real esse tipo de situação deve provar.