Kaitlyn Cimino / Autoridade Android
DR
- O Google agora forneceu uma explicação sobre o que deu errado com o Gemini depois que ele gerou imagens imprecisas e ofensivas de pessoas.
- A gigante da tecnologia afirma que duas coisas deram errado e fizeram com que a IA compensasse excessivamente.
- A geração de imagens de pessoas por IA não será reativada até que seja significativamente melhorada.
O Google se viu em apuros depois que Gemini foi pego gerando imagens de pessoas que eram imprecisas e ofensivas. Desde então, a empresa desativou a capacidade do LLM de produzir imagens de pessoas. Agora a empresa divulgou um pedido de desculpas, bem como uma explicação sobre o ocorrido.
Em uma postagem no blog, a empresa sediada em Mountain View pediu desculpas pelo erro da Gemini, afirmando que estava “claro que esse recurso errou o alvo” e “lamento que o recurso não tenha funcionado bem”. Segundo o Google, duas coisas levaram à criação dessas imagens.
Como relatamos anteriormente, acreditávamos que era possível que Gemini estivesse corrigindo demais algo que tem sido um problema com as imagens geradas por IA, que refletem nosso mundo racialmente diverso. Parece que foi exatamente isso que aconteceu.
A empresa explica que o primeiro problema está relacionado à forma como o Gemini é ajustado para garantir que uma variedade de pessoas seja retratada nas imagens. O Google admite que não conseguiu “considerar casos que claramente não deveriam mostrar um intervalo”.
A segunda questão decorre de como o Gemini escolhe quais solicitações são consideradas confidenciais. O Google afirma que a IA se tornou mais cautelosa do que esperava e se recusou a responder a certas solicitações.
No momento, o Google planeja manter a geração de imagens de pessoas congelada até que melhorias significativas sejam feitas no modelo.