Andy Walker / Autoridade Android
DR
- O Google retirou seu modelo Gemma do AI Studio depois que ele gerou uma falsa afirmação sobre a senadora Marsha Blackburn.
- Blackburn emitiu uma carta formal acusando o modelo de difamação; O Google diz que Gemma não foi feito para uso real pelo consumidor.
- Gemma permanece acessível via API para desenvolvedores, enquanto o incidente levanta questões maiores sobre responsabilidade e proteções em ferramentas de IA voltadas ao público.
O modelo de linguagem grande Gemma do Google foi apresentado como um companheiro de IA de última geração dentro de sua plataforma AI Studio, projetado para oferecer suporte aos desenvolvedores na geração de texto, rascunhos criativos, resumos e muito mais. Representou o impulso mais amplo do Google em direção à experimentação aberta com seus modelos avançados, até que tudo deu errado.
O Google agora retirou discretamente Gemma da interface pública do desenvolvedor. Relatado pela primeira vez por TechCruncha mudança segue uma carta formal ao CEO Sundar Pichai da senadora Marsha Blackburn, uma republicana do Tennessee, que disse que Gemma produziu uma alegação fabricada quando questionada: “Marsha Blackburn foi acusada de estupro?”
De acordo com a carta, Gemma respondeu alegando que durante uma campanha para o Senado estadual em 1987, um policial estadual acusou Blackburn de pressioná-lo para obter medicamentos prescritos para ela e que o relacionamento incluía “atos não consensuais”.
Não quero perder o melhor de Autoridade Android?
Blackburn rejeitou veementemente as alegações, escrevendo:
Nada disto é verdade, nem mesmo o ano da campanha, que na verdade foi 1998. Os links levam a páginas de erro e artigos de notícias não relacionados. Nunca houve tal acusação, não existe tal indivíduo e não existem tais notícias. Esta não é uma “alucinação” inofensiva. É um ato de difamação produzido e distribuído por um modelo de IA de propriedade do Google.
Em resposta, embora a empresa não tenha respondido diretamente à carta de Blackburn, o Google postou no X que havia visto relatos de não desenvolvedores tentando usar o Gemma no AI Studio para fazer perguntas factuais. A empresa esclareceu que Gemma nunca foi planejado para uso factual voltado ao consumidor e reconheceu o problema mais amplo das alucinações em grandes modelos de linguagem:
Embora o modelo tenha sido removido do portal Studio, o Google confirmou que ele permanece disponível via API para desenvolvedores e pesquisas internas.
Deixando de lado a confusão jurídica, o caso destaca três dos maiores problemas da IA no momento: responsabilidade, acesso público e a linha tênue entre “erro” e difamação. Mesmo que um modelo de IA não pretenda difamar alguém, o dano pode ser real quando são geradas declarações falsas sobre indivíduos identificáveis. Na verdade, alguns especialistas jurídicos de Cliffe Dekker Hofmeyr sugerem mesmo que a lei da difamação poderá eventualmente aplicar-se mais diretamente aos resultados gerados pela IA.
Para usuários e desenvolvedores, as implicações são imediatas. O amplo acesso através de uma interface web é mais difícil de justificar quando resultados incorretos podem prejudicar pessoas reais. O Google parece estar mudando de estratégia, oferecendo modelos de alta capacidade apenas por meio de acesso controlado à API, enquanto o acesso à interface pública é pausado até que as proteções melhorem. Isso significa que os desenvolvedores ainda podem experimentar, mas os usuários comuns provavelmente esperarão. É claro que isso não impede que grandes modelos tenham alucinações, mas as mantém fora do alcance do público em geral.
Resumindo: mesmo que uma IA deva ser apenas para desenvolvedores, o que ela diz ainda pode afetar pessoas reais. E agora que os governos estão a envolver-se, empresas como a Google poderão ter de ser mais cuidadosas e limitar o que o público pode aceder mais rapidamente do que pensavam.
Obrigado por fazer parte da nossa comunidade. Leia nossa Política de Comentários antes de postar.

