Leitores como você ajudam a apoiar o MUO. Quando você faz uma compra usando links em nosso site, podemos ganhar uma comissão de afiliado. Consulte Mais informação.

A Apple anunciou planos para escanear seu conteúdo do iCloud em busca de material de abuso sexual infantil (CSAM) em agosto de 2021 para proteger as crianças de abuso por predadores.

A empresa planejava lançar um novo recurso de detecção de CSAM no iCloud Photos que procuraria esse conteúdo e relataria imagens correspondentes à Apple, mantendo a privacidade do usuário.

No entanto, o novo recurso foi recebido com reações mistas. Mais de um ano desde o anúncio inicial, a Apple está abandonando oficialmente seu plano de escanear fotos do iCloud para CSAM.

Apple desiste de plano de escanear iCloud em busca de material de abuso infantil

De acordo com um relatório de COM FIO, a Apple está abandonando seu plano de escanear seu iCloud em busca de conteúdo de abuso infantil. A ferramenta digitalizaria fotos armazenadas no iCloud para encontrar aquelas que correspondem a imagens CSAM conhecidas, conforme identificadas por organizações de segurança infantil. Ele poderia então denunciar essas imagens porque a posse de imagens CSAM é ilegal na maioria das jurisdições, incluindo os EUA.

instagram viewer

Por que a Apple cancelou seu plano de digitalizar fotos do iCloud

Após o anúncio inicial em 2021, a Apple enfrentou reações adversas de clientes, grupos e indivíduos que defendiam a privacidade e a segurança digital em todo o mundo. Os iPhones normalmente oferecem mais segurança do que os dispositivos Android, e muitos viram isso como um retrocesso. Embora tenha sido uma vitória para as organizações de segurança infantil, mais de 90 grupos políticos escreveram uma carta aberta à Apple no mesmo mês, pedindo à empresa que cancelasse o plano.

A carta argumentava que, embora a ferramenta pretenda proteger as crianças do abuso, pode ser usado para censurar a liberdade de expressão e ameaçar a privacidade e a segurança do usuário. Devido à crescente pressão, a Apple interrompeu seus planos de lançamento para coletar feedback e fazer os ajustes necessários no recurso. No entanto, o feedback não favoreceu o plano da Apple de digitalizar fotos do iCloud, então a empresa está oficialmente abandonando os planos para sempre.

Em comunicado à WIRED, a empresa disse:

"Nós temos... decidiu não avançar com nossa ferramenta de detecção de CSAM proposta anteriormente para fotos do iCloud. As crianças podem ser protegidas sem que as empresas vasculhem os dados pessoais, e continuaremos trabalhando com governos, defensores da criança e outras empresas para ajudar a proteger os jovens, preservar seu direito à privacidade e tornar a internet um lugar mais seguro para as crianças e para nós todos."

O novo plano da Apple para proteger as crianças

A Apple está redirecionando seus esforços para melhorar os recursos de Segurança de Comunicação anunciados em agosto de 2021 e lançados em dezembro do mesmo ano.

A Segurança de Comunicação é opcional e pode ser usada pelos pais e responsáveis ​​para proteger as crianças de enviar e receber imagens sexualmente explícitas no iMessage. O recurso desfoca automaticamente essas fotos e a criança será avisada sobre os perigos envolvidos. Ele também avisa qualquer pessoa se ela tentar pesquisar CSAM em dispositivos Apple.

Com os planos de lançar uma ferramenta de detecção de CSAM cancelados, a empresa espera melhorar ainda mais o recurso e expandi-lo para mais aplicativos de comunicação.