Ciência e Tecnologia

06/08/2021 | domtotal.com

Apple apresenta ferramenta para detectar abuso infantil em seus aparelhos e servidores

Empresa usará sistemas criptografados para analisar imagens que considerarem suspeitas e irá comparar com de crianças desaparecidas

Ferramenta será usada nos Estados Unidos
Ferramenta será usada nos Estados Unidos (LOIC VENANCE/afp)

A gigante de informática Apple apresentou nesta quinta-feira (05) novas ferramentas destinadas a detectar imagens sexuais de crianças armazenadas nos Iphones, Ipad e nos seus servidores iCloud nos Estados Unidos, provocando preocupação nos defensores da privacidade na internet.

"Queremos ajudar a proteger as crianças dos predadores que usam ferramentas de comunicação para recrutá-las e explorá-las, e limitar a difusão de pornografia infantil", disse o grupo em sua página.

A empresa usará ferramentas criptografadas que analisem e vinculem imagens que considerarem suspeitas com um número específico para cada uma. Também planeja comparar as fotos armazenadas no iCloud com as guardadas em um arquivo administrado pelo Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC), uma corporação privada americana que trabalha para reduzir a exploração sexual infantil. A Apple assegura que não tem acesso direto às imagens.

Quando uma foto se parecer com alguma do arquivo, a Apple a revisará manualmente, desabilitará a conta do usuário se necessário e enviará um relatório ao NCMEC.

O grupo também planeja novas ferramentas para prevenir crianças e pais que tenham uma conta para "Compartilhar em família" (Family Sharing) quando fotos explícitas lhes forem enviadas ao aplicativo de mensagens.

As fotos ficarão embaçadas e o menor receberá mensagens preventivas como advertência de que não é obrigado a abri-las. Os pais podem optar por receber uma mensagem quando o filho abrir as fotos. Serão implementadas proteções similares para crianças que enviarem fotos sexualmente explícitas.

O grupo também incrementará a informação de prevenção difundida pela assistente de voz Siri quando as crianças ou os pais pedirem conselhos sobre situações determinadas.

A Siri e o Search também podem intervir quando os usuários buscarem imagens de pornografia infantil, advertindo-lhes que o conteúdo é problemático. Estas ferramentas estarão disponíveis gradativamente com as próximas atualizações dos sistemas operacionais no iPhone, iPad, iWatch e iMac.

Privacidade

As medidas "representam uma mudança significativa nos protocolos de privacidade e segurança estabelecidos há muito tempo", estimou o Centro para a Democracia e Tecnologia (CDT).

"A Apple está substituindo seu sistema de mensagens criptografadas de ponta a ponta por uma infraestrutura de vigilância e censura, que será vulnerável a abusos e uso indevido não apenas nos Estados Unidos, mas em todo o mundo", criticou Greg Nojeim, do CDT, em uma mensagem enviada para a reportagem.

"A exploração infantil é um problema sério e a Apple não é a primeira empresa de tecnologia a mudar sua postura sobre a proteção da privacidade na tentativa de combatê-la", destacaram India McKinney e Erica Portnoy, da ONG em defesa da liberdade na Internet Electronic Frontier Foundation.

Mas, mesmo desenvolvido com a melhor das intenções, um sistema projetado para detectar pornografia infantil "abre a porta para novos abusos", completaram em um post em blog. Basta a Apple modificar um pouco a configuração para buscar outros tipos de conteúdo ou escanear as contas não só das crianças, mas de todos, explicam.


AFP



Comentários
Newsletter

Você quer receber notícias do domtotal em seu e-mail ou WhatsApp?

* Escolha qual editoria você deseja receber newsletter.

DomTotal é mantido pela EMGE - Escola de Engenharia e Dom Helder - Escola de Direito.

Engenharia Cívil, Ciência da Computação, Direito (Graduação, Mestrado e Doutorado).

Saiba mais!