Edgar Cervantes / Autoridade Android
Tl; Dr
- Os pesquisadores mostraram como um convite de calendário envenenado poderia seqüestrar Gêmeos e controlar dispositivos domésticos inteligentes.
- O ataque usou injeção rápida indireta para acionar ações como abrir janelas, desligar as luzes e iniciar chamadas de zoom.
- O Google diz que as falhas específicas foram corrigidas, mas os especialistas alertam vulnerabilidades semelhantes de IA continuam sendo um risco sério.
Não possuo dispositivos domésticos inteligentes, principalmente porque nunca senti a necessidade. No entanto, eu não esperava que minha relutância pudesse um dia ser justificada pela possibilidade de que um convite de calendário desonesto pudesse fazer com que esses dispositivos se voltem contra mim. Mas esse é exatamente o tipo de cenário que foi demonstrado, usando os gêmeos do Google para controlar remotamente luzes, janelas e até uma caldeira por meio de um único convite de calendário envenenado.
Na conferência de segurança do Black Hat nesta semana, um grupo de pesquisadores da Universidade, Technion e SafeBreach de Tel Aviv mostrou como eles foram capazes de sequestrar Gêmeos usando o que é conhecido como injeção rápida indireta. Conforme relatado por Conectadoeles incorporaram instruções ocultas em um evento do Google Calendar, que Gemini então processou quando solicitado a resumir a semana do usuário. A partir daí, algumas frases simples como “obrigado” foram suficientes para desencadear ações domésticas inteligentes sem que o usuário perceba anteriormente.
O Google foi notificado em fevereiro e trabalhou com os pesquisadores para implantar correções.
O estudo, ““Convite é tudo que você precisa” Descreve 14 cenários de ataque diferentes no aplicativo da web da Gemini, no aplicativo móvel e até no Google Assistant. Alguns se concentraram no controle de dispositivos inteligentes, enquanto outros eram mais invasivos – como eliminar detalhes do calendário, lançar chamadas de vídeo ou exfiltrar -se em e -mails. Todos eles se basearam em avisos ocultos em recursos comuns, como e -mails, convites e documentos compartilhados.
Os pesquisadores descrevem esses ataques como uma forma de “Promptware”, onde o idioma usado para interagir com a IA se torna um tipo de malware. Em vez de explorar bugs de software, os invasores podem simplesmente enganar o modelo a executar ações perigosas incorporando instruções em lugares que você nunca pensaria para verificar.
O Google foi notificado em fevereiro e trabalhou com os pesquisadores para implantar correções. De acordo com a empresa, agora lançou defesas mais fortes, incluindo classificadores rápidos, manuseio suspeito de URL e novos requisitos de confirmação do usuário quando a Gemini tenta executar ações sensíveis, como controle de dispositivos ou links de abertura.
Ainda assim, a equipe por trás do estudo alerta que isso é apenas o começo. Sua análise de ameaças descobriu que quase três quartos dos cenários representaram um risco “de alto crítico” para os usuários, e eles argumentam que a segurança não está acompanhando a velocidade com que os LLMs estão sendo integrados às ferramentas e ambientes do mundo real.
Talvez minhas luzes não possam ser apagadas remotamente, mas em dias como este, estou bem com isso.
Obrigado por fazer parte da nossa comunidade. Leia nossa política de comentários antes de postar.

