
Andy Walker / Autoridade Android
DR
- A Apple e o Google dizem que proíbem aplicativos de nudificação, mas um novo relatório mostra que eles ainda estão ajudando os usuários a encontrá-los.
- A Apple supostamente listou 18 aplicativos e o Google Play teve 20, com um total combinado de 483 milhões de downloads e US$ 122 milhões em receita.
- Diz-se que alguns desses aplicativos são classificados como “E”, o que significa que até crianças podem baixá-los.
A Apple e o Google deveriam estar reprimindo aplicativos prejudiciais. No entanto, um novo relatório sugere que eles ainda estão ajudando os usuários a encontrar um dos tipos mais controversos, chamados de aplicativos “nudificar”.
Um novo relatório do Projeto de transparência tecnológica (TTP) afirma que tanto a Apple quanto o Google estão direcionando os usuários para aplicativos que usam IA para criar imagens falsas de nudez, embora suas políticas proíbam claramente esse tipo de conteúdo (via Bloomberg). A TTP, um braço de pesquisa da organização sem fins lucrativos Campaign for Accountability, já havia destacado a proliferação desse tipo de aplicativos no início deste ano.
Ambas as empresas proíbem oficialmente aplicativos que criam conteúdo sexual não consensual. As diretrizes da App Store da Apple e as políticas do Google Play restringem claramente os aplicativos que promovem exploração ou abuso. Os aplicativos Nudify se enquadram nesta categoria, especialmente porque muitas vezes precisam da foto de alguém para criar imagens explícitas sem o seu consentimento.
Não quero perder o melhor de Autoridade Android?


Mas o relatório da TTP descobriu que quando você pesquisa termos como “nudificar” ou “despir-se” na iOS App Store ou no Google Play, você encontrará dezenas de aplicativos que fazem exatamente isso. Ainda mais preocupante é que as lojas divulgam essas ferramentas e as sugerem por meio do preenchimento automático.
O grupo encontrou 18 desses aplicativos na loja da Apple e 20 no Google Play. Juntos, eles foram baixados 483 milhões de vezes e geraram receita de US$ 122 milhões, segundo dados da AppMagic. Muitos são classificados como “E” para todos, o que significa que até crianças podem baixá-los legalmente.
Esses aplicativos usam modelos generativos de IA semelhantes aos dos geradores de imagens populares. Os usuários carregam uma foto e a IA prevê a aparência de uma versão nua. Os resultados são muitas vezes perturbadoramente realistas.
Uma grande preocupação é como essas plataformas aumentam o alcance desses aplicativos. Mesmo que a Apple e o Google não hospedem todos eles diretamente, seus sistemas ainda ajudam os usuários a encontrá-los. Isto levanta questões sobre a responsabilidade tanto pelo que é permitido como pelo que é promovido.
Depois que a Bloomberg solicitou um comentário, a Apple disse que removeu 15 aplicativos. A Autoridade Android entrou em contato com o Google para obter uma declaração. No entanto, o principal problema é que o mesmo grupo relatou aplicativos semelhantes no início deste ano. As empresas removeram alguns, mas em poucos meses novos apareceram novamente.
Obrigado por fazer parte da nossa comunidade. Leia nossa Política de Comentários antes de postar.
