Novos recursos de segurança infantil incluem a digitalização de material de abuso sexual conhecido em bibliotecas de fotos dos usuários, entre outras novidades.
A Apple apresentou novos recursos de segurança infantil que chegarão com atualizações de software ainda este ano. A empresa disse que os recursos estarão disponíveis nos EUA e serão expandidos para outras regiões ao longo do tempo.
Segurança de comunicação
Primeiro, o aplicativo Mensagens no iPhone, iPad e Mac receberá um novo recurso de Segurança de Comunicação para alertar as crianças e seus pais ao receber ou enviar fotos sexualmente explícitas. A Apple disse que o aplicativo Mensagens usará aprendizado de máquina no dispositivo para analisar anexos de imagem e, se uma foto for considerada sexualmente explícita, ela será automaticamente desfocada e a criança será avisada.
Quando uma criança tenta visualizar uma foto sinalizada como confidencial no aplicativo Mensagens, ela será alertada de que a foto pode conter partes privadas do corpo e que pode ser prejudicial. Dependendo da idade da criança, também haverá a opção de os pais receberem uma notificação se seu filho continuar a ver a foto sensível ou se optarem por enviar uma foto sexualmente explícita para outro contato após serem avisados.
A Apple disse que o novo recurso de Segurança de Comunicação virá em atualizações para o iOS 15, iPadOS 15 e macOS 12 Monterey ainda este ano para contas configuradas como famílias no iCloud. A Maçã garantiu que as conversas do iMessage permanecerão protegidas com criptografia de ponta a ponta, tornando as comunicações privadas ilegíveis pela empresa.
Digitalização de fotos para material de abuso sexual infantil (Child Sexual Abuse Material - CSAM)
Em segundo lugar, a partir deste ano, com o iOS 15 e o iPadOS 15, a Apple será capaz de detectar imagens conhecidas de material de abuso sexual infantil armazenadas em Fotos do iCloud, permitindo que a gigante de Cupertino denuncie essas ocorrências ao Centro Nacional para Crianças Desaparecidas e Exploradas (National Center for Missing and Exploited Children - NCMEC), uma organização sem fins lucrativos que trabalha em colaboração com as agências de aplicação da lei dos EUA.
A Apple disse que seu método de detecção de material de abuso sexual infantil conhecido é projetado com a privacidade do usuário em mente. Em vez de escanear imagens na nuvem, a empresa disse que o sistema fará a comparação no dispositivo contra um banco de dados de imagem de hashes de material de abuso sexual infantil fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas e por outras organizações de segurança infantil. A Apple disse que vai transformar ainda mais esse banco de dados em um conjunto ilegível de hashes que é armazenado com segurança nos dispositivos dos usuários.
A tecnologia de hashing, chamada NeuralHash, analisa uma imagem e a converte em um número único específico daquela imagem, segundo a Apple.
"O principal objetivo do hash é garantir que imagens idênticas e visualmente semelhantes resultem no mesmo hash, enquanto imagens diferentes umas das outras resultam em hashes diferentes. Por exemplo, uma imagem que foi ligeiramente cortada, redimensionada ou convertida de colorida para preto e branco é tratada de forma idêntica ao original e tem o mesmo hash", explicou a Apple.
Antes de uma imagem ser armazenada no iCloud Photos, a Apple disse que um processo de correspondência no dispositivo é executado para essa imagem contra o conjunto ilegível de hashes de material de abuso sexual infantil conhecidos. Se houver uma correspondência, o dispositivo cria um voucher de segurança criptográfico. Este voucher é carregado no iCloud Photos junto com a imagem e, uma vez que um limite não divulgado de correspondências seja excedido, a Maçã pode interpretar o conteúdo dos vouchers para correspondências de material de abuso sexual infantil. A empresa então analisa manualmente cada relatório para confirmar se há uma correspondência, desativa a conta iCloud do usuário e envia um relatório ao Centro Nacional para Crianças Desaparecidas e Exploradas. A gigante de Cupertino não está compartilhando qual é seu limite exato, mas garante um "nível extremamente alto de precisão" para que as contas não sejam sinalizadas incorretamente.
A Apple disse que seu método de detecção de material de abuso sexual infantil conhecido fornece "benefícios significativos de privacidade" em relação às técnicas existentes:
Este sistema é uma forma eficaz de identificar material de abuso sexual infantil conhecido armazenado em contas do iCloud Photos, ao mesmo tempo que protege a privacidade do usuário.
Como parte do processo, os usuários também não podem aprender nada sobre o conjunto de imagens de material de abuso sexual infantil conhecidas que são usadas para correspondência. Isso protege o conteúdo do banco de dados contra uso malicioso.
O sistema é muito preciso, com uma taxa de erro extremamente baixa de menos de um em um trilhão de contas por ano.
O sistema preserva significativamente mais a privacidade do que a varredura baseada na nuvem, pois relata apenas os usuários que possuem uma coleção de material de abuso sexual infantil conhecidos armazenados nas Fotos do iCloud.
A tecnologia subjacente ao sistema da Apple é bastante complexa e publicou um resumo técnico com mais detalhes.
John Clark, Presidente e CEO do Centro Nacional para Crianças Desaparecidas e Exploradas:
"A proteção expandida da Apple para crianças é uma virada de jogo. Com tantas pessoas usando produtos da Apple, essas novas medidas de segurança têm potencial para salvar vidas para crianças que estão sendo atraídas online e cujas imagens horríveis estão circulando em material de abuso sexual infantil. No Centro Nacional para Crianças Desaparecidas e Exploradas, sabemos que esse crime só pode ser combatido se formos firmes em nossa dedicação à proteção das crianças. Só podemos fazer isso porque parceiros de tecnologia, como a Apple, se manifestam e mostram sua dedicação. A realidade é que privacidade e proteção infantil podem coexistir. Aplaudimos a Apple e esperamos trabalhar juntos para tornar este mundo um lugar mais seguro para as crianças".
Orientação expandida de material de abuso sexual infantil na Siri e na Pesquisa
Terceiro, a Apple disse que expandirá a orientação na Siri e na Busca Spotlight entre os dispositivos, fornecendo recursos adicionais para ajudar crianças e pais a se manterem seguros online e obter ajuda em situações inseguras. Por exemplo, os usuários que perguntam à Siri como eles podem relatar material de abuso sexual infantil ou exploração infantil serão direcionados a recursos sobre onde e como registrar uma denúncia.
As atualizações para a Siri e para a Busca estão chegando no final deste ano em uma atualização para o iOS 15, iPadOS 15, watchOS 8 e macOS 12 Monterey, de acordo com a Apple.
Fontes: Apple e MacRumors
6/8/2021 - 0h50
Comments