Robert Triggs / Autoridade Android
TL; DR
- Um novo relatório alega que a Apple planeja subverter a privacidade do iPhone em nome de impedir o abuso infantil.
- Alegadamente, a empresa planeja escanear fotos de usuários em busca de evidências de abuso infantil. Se encontrado, o algoritmo enviaria essa foto para um revisor humano.
- A ideia de funcionários da Apple monitorando acidentalmente fotos legais dos filhos de um usuário é certamente preocupante.
Atualização, 5 de agosto de 2021 (16:10 ET): Pouco depois de publicar o artigo abaixo, a Apple confirmou a existência de seu software que caça abuso infantil. Em uma postagem do blog intitulada “Proteção expandida para crianças”, a empresa traçou planos para ajudar a conter o material de abuso sexual infantil (CSAM).
Como parte desses planos, a Apple lançará uma nova tecnologia em iOS e iPadOS que “permitirá que a Apple detecte imagens CSAM conhecidas armazenadas em Fotos do iCloud”. Basicamente, a varredura no dispositivo ocorrerá para todas as mídias armazenadas no iCloud Photos. Se o software descobrir que uma imagem é suspeita, ele a enviará para a Apple, que irá descriptografar a imagem e visualizá-la. Se descobrir que o conteúdo é, de fato, ilegal, notificará as autoridades.
A Apple afirma que há “uma chance em um trilhão por ano de sinalizar incorretamente uma determinada conta”.
Artigo original, 5 de agosto de 2021 (15h55 horário do leste): Nos últimos anos, a Apple tem se esforçado muito para solidificar sua reputação como empresa focada na privacidade. Ele freqüentemente cita sua abordagem de “jardim murado” como um benefício para a privacidade e segurança.
No entanto, um novo relatório de Financial Times questiona essa reputação. De acordo com o relatório, a Apple está planejando lançar um novo sistema que vasculharia fotos e vídeos criados por usuários em produtos da Apple, incluindo o iPhone. A razão pela qual a Apple sacrificaria a privacidade do iPhone dessa forma é para caçar abusadores de crianças.
Veja também: O que você precisa saber sobre os protetores de tela de privacidade
O sistema é supostamente conhecido como “neuralMatch”. Essencialmente, o sistema usaria software para digitalizar imagens criadas pelo usuário em produtos da Apple. Se o software encontrar qualquer mídia que possa apresentar abuso infantil – incluindo pornografia infantil – um funcionário humano será notificado. O humano então avaliaria a foto para decidir qual ação deveria ser tomada.
A Apple se recusou a comentar as acusações.
A privacidade do iPhone está chegando ao fim?
Obviamente, a exploração de crianças é um problema enorme e qualquer ser humano com um coração sabe que deve ser enfrentado com rapidez e vigor. No entanto, a ideia de alguém na Apple vendo fotos inócuas de seus filhos que o neuralMatch acidentalmente sinalizou como ilegais parece um problema muito real esperando para acontecer.
Também existe a ideia de que o software projetado para detectar o abuso infantil agora poderia ser treinado para detectar outra coisa mais tarde. E se em vez de abuso infantil fosse uso de drogas, por exemplo? Até onde a Apple está disposta a ir para ajudar os governos e as forças de segurança a capturar criminosos?
É possível que a Apple torne esse sistema público em questão de dias. Precisamos esperar e ver como o público reage, se e quando isso acontecer.