
Edgar Cervantes / Autoridade Android
DR
- Um novo relatório encontrou dezenas de aplicativos de “nudificação” e troca de rosto de IA na Apple App Store e na Google Play Store.
- Apesar das políticas contra a nudez sexual, esses aplicativos foram distribuídos pelas lojas de aplicativos. Muitos dos aplicativos geraram receitas significativas com compras dentro do aplicativo, das quais as plataformas recebem uma redução de até 30%.
- Muitos desses aplicativos foram removidos após o relatório, mas vários ainda estão disponíveis para download.
A IA é uma das ferramentas mais poderosas disponíveis atualmente e você pode fazer muito com ela. Mas, como qualquer ferramenta, pode ser usada para o bem ou para o mal. Nas últimas semanas, testemunhamos usuários de mídia social usando o chatbot Grok AI do X de maneiras obscenas, principalmente para criar imagens sexualizadas de mulheres sem o seu consentimento. Acontece que não é apenas Grok que está no centro deste escândalo de despir-se, já que tanto a Apple App Store quanto a Google Play Store supostamente hospedavam aplicativos “nudify”.
Não quero perder o melhor de Autoridade Android?


Projeto de transparência tecnológica encontraram 55 aplicativos na Google Play Store que permitiam a criação de imagens nuas de mulheres, enquanto a Apple App Store hospedava 47 desses aplicativos, sendo 38 comuns entre as duas lojas. Esses aplicativos estavam disponíveis na semana passada, embora o relatório mencione que o Google e a Apple removeram posteriormente 31 e 25 aplicativos, respectivamente, depois que a lista desses aplicativos nudify foi compartilhada com eles.
Para sua investigação, o Projeto de transparência tecnológica pesquisou termos como “nudificar” e “despir-se” nas duas lojas de aplicativos e encontrou dezenas de resultados. Muitos desses aplicativos usavam IA para gerar vídeos ou imagens a partir de solicitações do usuário ou para sobrepor o rosto de uma pessoa ao corpo de outra, ou seja, “troca de rosto”.
De forma alarmante, aplicativos como o DreamFace (um gerador de imagens/vídeos de IA, que ainda está disponível na Google Play Store, mas foi removido da Apple App Store) não apresentaram resistência quando os usuários inseriram instruções obscenas para mostrar mulheres nuas. O aplicativo permite que os usuários criem um vídeo por dia gratuitamente usando prompts, após os quais eles devem assinar recursos pagos. O relatório cita estatísticas do AppMagic para dizer que o aplicativo gerou US$ 1 milhão em receita.
Tenha em mente que o Google e a Apple cobram uma porcentagem significativa (até 30%) em compras no aplicativo, como assinaturas, lucrando efetivamente com esses aplicativos prejudiciais.
Da mesma forma, Collart é outro gerador de imagem/vídeo de IA que ainda está disponível na Google Play Store, mas foi removido da Apple App Store. Diz-se que este aplicativo não apenas aceita solicitações para nudificar mulheres, mas também aceita solicitações para retratá-las em situações pornográficas sem restrições aparentes. Estes são apenas dois exemplos, mas o relatório menciona vários outros com provas contundentes.
Os aplicativos de troca de rostos são ainda mais prejudiciais e predatórios, pois sobrepõem rostos que o usuário potencialmente conhece em corpos nus. Aplicativos como o RemakeFace ainda estão disponíveis na Google Play Store e na Apple App Store no momento em que este artigo foi escrito, e o relatório confirma que eles poderiam ser facilmente usados para criar nus não consensuais de mulheres.
Tanto a Google Play Store quanto a Apple App Store proíbem aplicativos que retratam nudez sexual. Mas, como revelou o relatório, esses aplicativos foram distribuídos através de lojas de aplicativos (com assinaturas no aplicativo), apesar de sua aparente violação das políticas dessas lojas. Está claro que as lojas de aplicativos não acompanharam a disseminação de aplicativos deepfake de IA que podem “nudificar” as pessoas sem sua permissão. As plataformas têm uma responsabilidade clara de proteger os utilizadores e esperamos que reforcem as suas diretrizes e se concentrem mais na monitorização proativa de tais aplicações, em vez de reagirem aos relatórios.
Entramos em contato com o Google e a Apple para comentários sobre esse assunto. Atualizaremos este artigo quando recebermos resposta das empresas.
Obrigado por fazer parte da nossa comunidade. Leia nossa Política de Comentários antes de postar.
