Eric Zeman / Autoridade Android
TL; DR
- O recurso de digitalização de fotos do Apple CSAM, anunciado há um mês, será adiado.
- A Apple diz que precisa “levar mais tempo nos próximos meses” para polir o recurso.
- A política veria as fotos do usuário “escaneadas” algoritmicamente em busca de evidências de abuso infantil.
No início de agosto, a Apple anunciou uma nova política muito polêmica. Em um esforço para conter a exploração infantil, a empresa disse que começaria a digitalizar com segurança todas as fotos que as pessoas enviarem para o iCloud. Embora essa varredura seja feita por algoritmo, qualquer sinalizador do algoritmo teria um acompanhamento de um ser humano.
Obviamente, o Material de Abuso Sexual Infantil (CSAM) é um grande problema que quase todo mundo quer combater. No entanto, a política de CSAM da Apple deixou muitas pessoas desconfortáveis devido ao quão invasivo de privacidade parece. Agora, a empresa está atrasando o lançamento do recurso (via 9to5Mac)
Veja também: Os melhores navegadores da web de privacidade para Android
A Apple prometeu que seu algoritmo para escanear o material do usuário era incrivelmente preciso, alegando que há “uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta”. Essa promessa não parou o desconforto, no entanto. A declaração da Apple sobre o atraso deixa isso bem claro:
No mês passado, anunciamos planos para recursos destinados a ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de material de abuso sexual infantil. Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes.
A declaração sugere que a Apple não lançará isso tão cedo. “Nos próximos meses” pode significar o final deste ano ou possivelmente em 2022. Pode até ser adiado indefinidamente.