A Comissão Europeia deve divulgar um projeto de lei que pode exigir que empresas de tecnologia, como Apple e Google, identifiquem, removam e denunciem, às autoridades policiais, imagens ilegais de abuso infantil em suas plataformas, afirma o site Politico.
De acordo a publicação, a Comissão Europeia (CE) acredita que as medidas voluntárias tomadas por algumas empresas digitais até agora "se mostraram insuficientes" para lidar com o crescente uso indevido de serviços online para compartilhamento de conteúdo de abuso sexual infantil, razão pela qual a comissão quer tornar obrigatória a detecção destes materiais.
Após meses de lobby, os grupos que representam empresas de tecnologia e organizações de direitos das crianças estão esperando para ver quão rigorosas podem ser as regras e como elas funcionarão sem que as empresas de tecnologia tenham que escanear uma gama de conteúdo de usuários, prática considerada ilegal pelo Tribunal de Justiça da União Europeia (UE) em 2016.
Além de como a identificação de material ilegal funcionaria dentro da lei, grupos de privacidade e empresas de tecnologia estão preocupados que a ação possa resultar na criação de backdoors para serviços de mensagens criptografadas de ponta a ponta, cujo conteúdo não pode ser acessado pela plataforma de hospedagem.
A Comissária de Assuntos Internos da CE, Ylva Johansson, disse que existem soluções técnicas para manter as conversas seguras ao encontrar conteúdo ilegal, mas especialistas em segurança cibernética discordam.
"A UE não deveria propor coisas tecnologicamente impossíveis", disse Ella Jakubowska, falando ao Politico. Jakubowska é consultora de políticas da European Digital Rights (EDRi), uma rede de 45 organizações não governamentais (ONGs). "A ideia é de que todas as centenas de milhões de pessoas na UE teriam suas comunicações privadas íntimas, onde elas têm uma expectativa razoável de que isso é privado, em vez de serem escaneadas indiscriminadamente e geralmente 24 horas por dia, 7 dias por semana", disse Jakubowska.
No entanto, os eurodeputados estão longe de estar alinhados nesta questão. Reagindo ao vazamento da proposta, o deputado centrista Renew Europe Moritz Körner disse ao Politico que a proposta da Comissão significaria que "a privacidade da correspondência digital estaria morta".
O acalorado debate reflete a controvérsia do ano passado em torno dos planos da Apple de procurar CSAM (material de abuso sexual infantil) em iPhones e iPads.
A Apple anunciou, em agosto de 2021, um conjunto planejado de novos recursos de segurança infantil, incluindo a digitalização das bibliotecas de fotos do iCloud dos usuários para CSAM e segurança de comunicação para alertar crianças e seus pais ao receber ou enviar fotos sexualmente explícitas. O recurso de alerta, e sem dúvida o menos controverso, já está disponível no iMessage (Mensagens). O método de varredura para CSAM ainda não foi implantado pela Maçã.
Após o anúncio da Apple, os recursos foram criticados por uma ampla gama de indivíduos e organizações, incluindo pesquisadores de segurança, a Electronic Frontier Foundation (EFF), o ex-chefe de segurança do Facebook, políticos, grupos políticos, pesquisadores universitários e até alguns funcionários da gigante de Cupertino.
A maioria das críticas foi direcionada à detecção planejada de CSAM nos dispositivos Apple, por pesquisadores, por confiar em tecnologia perigosa que beirava à vigilância e ridicularizada por ser ineficaz na identificação de imagens de abuso sexual infantil.
A Apple inicialmente tentou dissipar alguns mal-entendidos e tranquilizar os usuários, divulgando informações detalhadas e compartilhando entrevistas com executivos da empresa para aliviar as preocupações. No entanto, apesar dos esforços, a controvérsia não desapareceu, e ela decidiu adiar o lançamento do CSAM após muitas críticas. A Apple disse que sua decisão de adiar foi "baseada no feedback de clientes, grupos de defesa, pesquisadores e outros".
Em dezembro de 2021, a Apple silenciosamente vetou todas as menções ao CSAM em sua página de segurança infantil, sugerindo que seu recurso controverso para detectar imagens de abuso sexual infantil em iPhones e iPads estava sendo eliminado após críticas significativas a seus métodos. No entanto, a Maçã diz que seus planos para a detecção de CSAM não mudaram, o que sugere que ele, de alguma forma, ainda chegará no futuro.
Fontes: Politico, The Verge e MacRumors
14/5/2022 - 0h19
Comments