Uma batata quente: Os deepfakes confiam na IA para criar imagens ou vídeos altamente convincentes de alguém dizendo ou fazendo algo que nunca disse ou fez. Alguns exemplos produzidos para fins de entretenimento equivalem a diversão inofensiva, mas outros estão usando a tecnologia para fins nefastos.
Em um recente anúncio de serviço público do Internet Crime Complaint Center (IC3) do FBI, a agência alertou para um aumento no número de reclamações recebidas sobre o uso de deepfakes e informações pessoais roubadas para se candidatar a empregos remotos e de trabalho remoto.
Embora os deepfakes tenham percorrido um longo caminho em um período de tempo relativamente curto, ainda existem algumas arestas que os empregadores atentos podem ocasionalmente perceber. Durante entrevistas online ao vivo, por exemplo, as ações e movimentos labiais da pessoa que está sendo entrevistada nem sempre estão em sincronia com o áudio da voz que está sendo ouvida. Além disso, ações como tossir ou espirrar são outro indicador de que algo suspeito está acontecendo, pois não se alinham com o que está sendo visto.
O FBI disse que as posições solicitadas nos relatórios incluíam tecnologia da informação e programação de computadores, banco de dados e funções de trabalho relacionadas a software. Algumas dessas posições concederiam ao candidato acesso a informações de identificação pessoal do cliente, dados financeiros corporativos, bancos de dados de TI e/ou informações proprietárias, todas as quais poderiam ser valiosas no mercado negro.
Empresas ou vítimas desse tipo de atividade são incentivadas a denunciá-la à divisão IC3 do FBI.
Crédito da imagem: Anna Shvets