Em agosto de 2021, a Apple revelou seus planos de escanear iPhones em busca de imagens de abuso sexual infantil. A medida atraiu aplausos de grupos de proteção à criança, mas levantou preocupações entre especialistas em privacidade e segurança de que o recurso poderia ser mal utilizado.

A Apple planejou inicialmente incluir a tecnologia de digitalização de Material de Abuso Sexual Infantil (CSAM) no iOS 15; em vez disso, atrasou indefinidamente a implementação do recurso para solicitar feedback antes de seu lançamento completo.

Então, por que o recurso de detecção de CSAM se tornou um assunto de debate acalorado, e o que fez a Apple adiar seu lançamento?

O que o recurso de digitalização de fotos da Apple faz?

A Apple anunciou a implementação do recurso de digitalização de fotos na esperança de combater o abuso sexual infantil. Todas as fotos nos dispositivos dos usuários da Apple serão verificadas em busca de conteúdo pedofílico usando o algoritmo "NueralHash" criado pela Apple.

Além disso, quaisquer dispositivos Apple usados ​​por crianças teriam um recurso de segurança que automaticamente desfoque as fotos de adultos se recebidas por uma criança, e o usuário será avisado duas vezes se tentar abrir eles.

Além de minimizar a exposição a conteúdo adulto, se os pais registrarem os dispositivos de seus filhos para segurança adicional, os pais seriam notificados caso a criança recebesse conteúdo explícito de alguém conectados.

Consulte Mais informação: O que você precisa saber sobre as proteções de segurança infantil da Apple

Quanto aos adultos que usam o Siri para procurar qualquer coisa que sexualize as crianças, o Siri não fará essa busca e sugerirá outras alternativas.

Os dados de qualquer dispositivo contendo 10 ou mais fotos consideradas suspeitas pelos algoritmos serão descriptografados e submetidos à revisão humana.

Se essas fotos ou qualquer outra no dispositivo corresponderem a alguma coisa do banco de dados fornecido por Centro Nacional para Crianças Desaparecidas e Exploradas, isso será informado às autoridades e a conta do usuário será suspensa.

Principais preocupações em relação ao recurso de digitalização de fotos

O recurso de detecção de CSAM teria entrado no ar com o lançamento do iOS 15 em setembro de 2021, mas na cara de protestos generalizados, a Apple decidiu dedicar mais tempo para coletar feedback e fazer melhorias neste recurso. Aqui está Declaração completa da Apple no atraso:

"No mês passado, anunciamos planos para recursos destinados a ajudar a proteger crianças de predadores que usar ferramentas de comunicação para recrutá-los e explorá-los e limitar a disseminação do abuso sexual infantil Material.

Com base no feedback de clientes, grupos de defesa, pesquisadores e outros, decidimos reservar um tempo adicional nos próximos meses para coletar informações e fazer melhorias antes de liberar essas informações de segurança infantil extremamente importantes recursos".

Quase metade das preocupações relacionadas ao recurso de digitalização de fotos da Apple giram em torno da privacidade; o restante dos argumentos inclui a provável imprecisão dos algoritmos e o uso indevido potencial do sistema ou de suas lacunas.

Vamos dividi-lo em quatro partes.

Potencial Uso Indevido

Saber que qualquer material que combine com pornografia infantil ou imagens conhecidas de abuso sexual infantil colocará um dispositivo na lista de "suspeitos" pode colocar os cibercriminosos em ação.

Eles podem bombardear intencionalmente uma pessoa com conteúdo impróprio através do iMessage, WhatsApp ou qualquer outro meio e suspender a conta dessa pessoa.

A Apple garantiu que os usuários podem entrar com um recurso caso suas contas tenham sido suspensas devido a um mal-entendido.

Abuso interno

Embora projetado para uma causa benevolente, esse recurso pode se transformar em um desastre total para certas pessoas se seus dispositivos são cadastrados no sistema, com ou sem conhecimento, por familiares interessados ​​em monitorar sua comunicação.

Mesmo que isso não aconteça, a Apple criou um backdoor para tornar os dados dos usuários acessíveis no final do dia. Agora é uma questão de motivação e determinação para que as pessoas acessem as informações pessoais de outras pessoas.

Relacionado: O que é uma porta dos fundos e o que ela faz?

Isso não só facilita uma grande violação de privacidade, mas também abre caminho para práticas abusivas, tóxicas ou de controle parentes, tutores, amigos, amantes, cuidadores e ex-namorados para invadir ainda mais o espaço pessoal de alguém ou restringir seu liberdade.

Por um lado, visa combater o abuso sexual infantil; por outro, pode ser usado para perpetuar ainda mais outros tipos de abuso.

Vigilância Governamental

A Apple sempre se autodenominou uma marca que se preocupa mais com a privacidade do que seus concorrentes. Mas agora, pode estar entrando em uma ladeira escorregadia de ter que cumprir as demandas intermináveis ​​de transparência em dados do usuário por governos.

O sistema que criou para detectar conteúdo pedofílico pode ser usado para detectar qualquer tipo de conteúdo em telefones. Isso significa que os governos com uma mentalidade de culto podem monitorar os usuários em um nível mais pessoal se eles colocarem as mãos nisso.

Opressivo ou não, o envolvimento do governo em sua vida diária e pessoal pode ser enervante e é uma invasão de sua privacidade. A ideia de que você só precisa se preocupar com essas invasões se tiver feito algo errado é um pensamento errôneo e não consegue ver a já mencionada ladeira escorregadia.

Alarmes falsos

Uma das maiores preocupações do uso de algoritmos para combinar imagens com o banco de dados são os alarmes falsos. Algoritmos de hash podem identificar erroneamente duas fotos como correspondências, mesmo quando não são iguais. Esses erros, chamados de "colisões", são especialmente alarmantes no contexto de conteúdo de abuso sexual infantil.

Os pesquisadores encontraram várias colisões no "NeuralHash" depois que a Apple anunciou que usaria o algoritmo para digitalizar imagens. A Apple respondeu a perguntas sobre alarmes falsos apontando que o resultado será analisado por um ser humano no final, então as pessoas não precisam se preocupar com isso.

A pausa do CSAM da Apple é permanente?

Existem muitos prós e contras no recurso proposto pela Apple. Cada um deles é genuíno e tem peso. Ainda não está claro quais mudanças específicas a Apple poderia introduzir no recurso de varredura CSAM para satisfazer seus críticos.

Isso poderia limitar a digitalização para álbuns compartilhados do iCloud em vez de envolver os dispositivos dos usuários. É muito improvável que a Apple abandone totalmente esses planos, já que a empresa normalmente não está inclinada a desistir de seus planos.

No entanto, fica claro pela reação generalizada e pela suspensão dos planos da Apple, que as empresas devem incorporar a comunidade de pesquisa desde o início, especialmente para um não testado tecnologia.

CompartilhadoTweetO email
Segurança na Internet: mais de 50 dicas para manter seus filhos seguros online

As crianças são os principais alvos de predadores e cyberbullies online. Essas dicas úteis podem ensinar os pais como mantê-los seguros online.

Leia a seguir

Tópicos relacionados
  • Segurança
  • Iphone
  • Privacidade do smartphone
  • maçã
  • Privacidade Online
  • Vigilância
Sobre o autor
Fawad Ali (19 artigos publicados)

Fawad é engenheiro de TI e comunicação, aspirante a empresário e escritor. Ele entrou na arena da escrita de conteúdo em 2017 e trabalhou com duas agências de marketing digital e vários clientes B2B e B2C desde então. Ele escreve sobre Segurança e Tecnologia na MUO, com o objetivo de educar, entreter e envolver o público.

Mais de Fawad Ali

Assine a nossa newsletter

Junte-se ao nosso boletim informativo para dicas de tecnologia, análises, e-books grátis e ofertas exclusivas!

Clique aqui para se inscrever