
Dhruv Butani / Autoridade Android
DR
- Um novo relatório afirma que oito em cada dez principais chatbots de IA estavam dispostos a ajudar no planejamento de um ataque violento durante conversas simuladas.
- Apenas Claude, da Anthropic, e My AI, do Snapchat, normalmente se recusavam a ajudar, enquanto Claude era o único chatbot a desencorajar ativamente os invasores.
- Em um exemplo citado pelos pesquisadores, DeepSeek supostamente encerrou o conselho sobre rifles com a mensagem “Tiro feliz (e seguro)!”
Para muitos de nós, os chatbots de IA passaram rapidamente da obscuridade para uma fonte regular de aconselhamento sobre todos os tipos de questões. A velocidade do aumento tem regularmente anunciado mais pedidos de proteção, e agora um novo relatório sugere que muitos dos chatbots de IA mais populares estavam dispostos a ajudar em algo tão preocupante como planear um ataque violento.
Você acha que depende ou é viciado em chatbots de IA como o ChatGPT?
1471 votos
De acordo com um relatório publicado pelo Center for Countering Digital Hate (CCDH) (via A beira), os pesquisadores testaram dez chatbots amplamente utilizados, fazendo-se passar por usuários angustiados que gradualmente encaminharam as conversas para a violência. Os bots testados incluíram ChatGPT, Google Gemini, Microsoft Copilot, Meta AI e outros.
Não quero perder o melhor de Autoridade Android?


Os pesquisadores descobriram que oito dos dez chatbots estavam normalmente dispostos a ajudar os usuários a planejar ataques violentos, incluindo tiroteios em escolas, atentados a bomba e assassinatos políticos. Apenas Claude, da Anthropic, e My AI, do Snapchat, geralmente se recusaram a ajudar, enquanto Claude foi o único chatbot a desencorajar ativamente possíveis invasores, de acordo com o relatório.
Alguns dos exemplos citados pelos pesquisadores são marcantes. Num caso, Gemini teria sugerido que “estilhaços de metal são normalmente mais letais” durante uma discussão sobre um atentado bombista numa sinagoga. De forma igualmente alarmante, DeepSeek supostamente terminou com conselhos sobre a seleção de rifles com a mensagem “Tiro feliz (e seguro)!” depois de uma discussão sobre potencial violência contra um político. O relatório também sinalizou o Character.AI como particularmente preocupante, alegando que a plataforma às vezes encorajava ativamente o comportamento violento durante conversas simuladas.
O estudo utilizou 18 cenários diferentes ambientados nos EUA e na Irlanda, com os investigadores a escalar gradualmente as conversas desde sinais de sofrimento mental até perguntas sobre alvos, tácticas e armas. Os autores argumentam que os resultados destacam uma lacuna de segurança mais ampla nos atuais sistemas de IA. Na sua opinião, as respostas de Claude mostraram que barreiras de proteção mais fortes são tecnicamente viáveis, levantando a questão de por que muitas outras grandes plataformas de IA parecem menos eficazes na prevenção de tais interações.
Obrigado por fazer parte da nossa comunidade. Leia nossa Política de Comentários antes de postar.
