Edgar Cervantes / Autoridade Android
TL;DR
- Um novato autoproclamado supostamente criou malware de mineração de dados usando o ChaptGPT.
- Diz-se que o malware é tão sofisticado quanto o malware em nível de estado-nação.
- Construir esse tipo de malware levaria semanas para ser criado por uma equipe.
Agora que as ferramentas de IA, como Bard e ChatGPT, estão disponíveis ao público, talvez seja hora de começar a fazer perguntas sobre segurança. Especialmente agora que alguém o usou para criar um sofisticado programa de malware quase indetectável.
De acordo com Tendências Digitais, o pesquisador de segurança do Forcepoint, Aaron Mulgrew, diz que criou malware de dia zero usando apenas o ChatGPT. Embora o chatbot da Open AI tenha proteções que normalmente impedem os usuários de fazer isso, o autoproclamado novato encontrou uma brecha.
Em vez de fazer com que o software criasse o malware de uma só vez, Mulgrew supostamente fez a IA escrever linhas separadas de código malicioso. Depois que o processo foi concluído, Mulgrew foi capaz de compilar as funções individuais em um único programa coeso de roubo de dados.
Diz-se que o malware em questão se disfarça como um aplicativo de proteção de tela que é iniciado automaticamente no Windows. Ele é capaz de pegar dados de arquivos, dividi-los em pedaços menores que se escondem em imagens e fazer upload desses dados para uma pasta do Google Drive.
O fato de Mulgrew ter sido capaz de criar malware dessa maneira é bastante assustador, mas fica pior. Alegadamente, Mulgrew foi capaz de refinar e fortalecer seu código com o ChatGPT a ponto de os testes do VirusTotal não conseguirem mais detectá-lo. Também é considerado tão sofisticado quanto qualquer ameaça em nível de estado-nação.
No entanto, a parte realmente assustadora é o fato de que ele fez tudo isso sozinho em questão de horas. A criação de malware desse nível geralmente seria um esforço de equipe e exigiria semanas de trabalho para compilar.
Felizmente, o malware não está disponível publicamente. Este foi apenas um teste que Mulgrew estava conduzindo. Mas isso mostra o quão perigoso o ChatGPT pode estar nas mãos erradas.