
Mishaal Rahman / Autoridade Android
DR
- Pesquisadores de segurança desbloquearam o Gemini 3 Pro do Google em cinco minutos, contornando todas as suas barreiras éticas.
- Uma vez violado, o modelo produziu instruções detalhadas para a criação do vírus da varíola, bem como código para o gás sarin e guias sobre como fabricar explosivos.
- A modelo atendeu a um pedido para satirizar a violação, gerando uma apresentação de slides intitulada “Excused Stupid Gemini 3”.
O mais novo e poderoso modelo de IA do Google, Gemini 3, já está sob análise. Uma equipa sul-coreana de segurança de IA demonstrou que a rede de segurança do modelo pode ser violada e os resultados podem levantar alarmes em toda a indústria.
Aim Intelligence, uma startup que testa sistemas de IA em busca de pontos fracos, decidiu testar o Gemini 3 Pro e ver até onde ele poderia ser levado com um ataque de jailbreak. Jornal de negócios Maeil relata que os pesquisadores levaram apenas cinco minutos para passar pelas proteções do Google.
Não quero perder o melhor de Autoridade Android?


Os pesquisadores pediram ao Gemini 3 instruções para produzir o vírus da varíola, e o modelo respondeu rapidamente. Forneceu muitas etapas detalhadas, que a equipe descreveu como “viáveis”.
Este não foi apenas um erro pontual. Os pesquisadores foram além e pediram que a modelo fizesse uma apresentação satírica sobre sua própria falha de segurança. Gemini respondeu com uma apresentação de slides completa chamada “Excused Stupid Gemini 3”.
Em seguida, a equipe usou as ferramentas de código do Gemini para criar um site com instruções para fabricar gás sarin e explosivos caseiros. Novamente, este é um tipo de conteúdo que o modelo nunca deveria fornecer. Em ambas as vezes, o sistema não só foi contornado como também ignorou as suas próprias regras de segurança.
Os testadores de segurança de IA dizem que este não é um problema apenas do Gemini. Os modelos mais novos estão se tornando tão avançados e tão rapidamente que as medidas de segurança não conseguem acompanhar. Em particular, estes modelos não respondem apenas; eles também tentam evitar a detecção. A Aim Intelligence afirma que o Gemini 3 pode usar estratégias de desvio e avisos de ocultação, tornando as salvaguardas simples muito menos eficazes.
Um relatório recente do grupo de consumidores do Reino Unido Which? descobriram que os principais chatbots de IA, como Gemini e ChatGPT, muitas vezes têm problemas de confiabilidade, dando conselhos errados, pouco claros ou até mesmo perigosos.
É claro que a maioria das pessoas nunca pedirá a uma IA que faça algo prejudicial. A verdadeira questão é a facilidade com que alguém com más intenções pode obrigar esses sistemas a fazer coisas que deveriam bloquear. Autoridade Android entrou em contato com o Google para comentar e atualizaremos este artigo se recebermos uma resposta.
Se um modelo forte o suficiente para vencer o GPT-5 puder ser desbloqueado em minutos, os consumidores deverão esperar uma onda de atualizações de segurança, políticas mais rígidas e possivelmente a remoção de alguns recursos. A IA pode estar ficando mais inteligente, mas as defesas que protegem os usuários não parecem estar evoluindo no mesmo ritmo.
Obrigado por fazer parte da nossa comunidade. Leia nossa Política de Comentários antes de postar.
