
Apple desenvolve sistema contra abuso que apresenta falhas de segurança
Por Rafael Campos*
A grandiosa Apple Inc, tem atuado contra o abuso infantil. Ela desenvolveu um polêmico sistema chamado CSAM para ajudar a reprimir a pornografia infantil online armazenada em contas do iCloud.
Vamos entender quem é esse ser chamado CSAM?
CSAM é uma sigla em inglês que significa Child Sexual Abuse Material – Material de abuso sexual de menores. Apesar de CSAM ser um sinônimo para pornografia infantil, o crime recebeu essa nova nomenclatura para fins profissionais de tipificação jurídica.
Este tipo de crime é difundido mundialmente, onde os criminosos, normalmente, fazem uso de subterfúgios de encriptação, fóruns na dark web, conexão mascarada via VPN, etc.
Apesar dos motivos serem, indiscutivelmente, corretos para o combate desse crime hediondo contra crianças, a comunidade se alertou para o fato, devido a metodologia ser, a princípio, “invasiva” nos sistemas de aparelhos individuais – atacando diretamente a privacidade dos usuários, lembrando que a Apple sempre foi uma companhia com muito foco em privacidade.
Entendemos o lado da Apple, mas como eles fazem isso?
A Apple utiliza um conjunto de classes com inúmeras funções chamada de HASH.
Mas o que é HASH?
Sempre que você inserir algum input de informações, ele irá fazer um cálculo e gerar uma HASH, também chamado de Digest.
Hoje o HASH é muito utilizado para verificarmos a integridade de um objeto.
Mas com a imagem acima conseguimos ver que existem algumas limitações de Bits.

Independentemente da quantidade de caracteres que são imputados para gerar uma HASH, ele se transformará em um cálculo de 20bits, por exemplo.
Com todo esse cálculo limitando em alguns bits, é inevitável que em algum momento iriam acontecer uma colisão de cálculos entre dois textos com o mesmo HASH. Esse problema se encontra em todas as funções, mas muitas vezes é algo teórico e muito difícil de se encontrar. Mas, quando a colisão é encontrada essa classe se torna totalmente vulnerável.
Vamos entender como tudo isso irá funcionar:

A Apple possui um Banco de dados chamado CSAM – Image Hashes, que são exatamente imagens conhecidas no mundo do combate à pornografia infantil. A partir da atualização do IOS 15 a Apple irá fazer o upload das hashs que são geradas em cada foto para o seu celular.
Após o seu aparelho conter todas as hashs que estão no CSAM, ele analisará todas as suas fotos gerando novas hash’s e fazendo uma comparação. Caso alguma foto possua um Match entre hashs, este conteúdo gerará um Safety Vouchers. Os vouchers são carregados para o iCloud Photos junto com a imagem, utilizando a tecnologia chamada Compartilhamento limite de segredo, e serão revisadas por uma equipe da Apple. Caso seja de fato um conteúdo de pornografia infantil, a Apple irá reportar o usuário para uma ONG que combate este abuso e não para o governo.
A ONG é a NCMEC – Centro Nacional para Crianças Desaparecidas e Exploradas, órgão americano que controla e investiga este tipo de crime virtual. O NCMEC atua como um centro de relatórios abrangente para CSAM e trabalha em colaboração com agências de aplicação da lei nos Estados Unidos.
Este projeto é muito importante para a sociedade, porém, há um grande problema: quando uma hash possuí a mesma função de senha, foto, arquivo e contrato, cibercriminosos conseguem executar inúmeros ataques, podendo gerar um arquivo de contrato, auto assinado, com certificado, com a hash contendo conteúdos diferentes.
Para evitar riscos, um grupo de pesquisadores estão estudando o AppleNeuralHash2ONNX, pois ele é o responsável por converter o modelo NeuralHash da Apple para detecção de CSAM em ONNX, ou seja, a Apple criou uma classe de hash própria contendo um método de hash perceptivo para imagens baseado em redes neurais.
Veja o exemplo abaixo, com duas imagens contendo os mesmos Hash’s: 59a34eabe31910abfb06f308

59a34eabe31910abfb06f308

59a34eabe31910abfb06f308
Isso apenas é possível porque pesquisadores encontraram uma colisão entre hashs dentro da classe neural criada pela Apple. Para haver uma colisão, as fotos precisam estar com as mesmas quantidades de pixels.
O impacto desta colisão para a Apple são que pessoas que consomem este conteúdo e/ou pessoas que não gostam da marca, podem começar a criar imagens com as mesmas hashs que constam no banco de dados da CSAM, com imagens que devidamente não são do mundo da pornografia infantil e inundando a internet e em paralelo floodando a revisão de fotos manual da Apple, tornando inviável analisar todas as fotos que foram para o iCloud, transformando o serviço não efetivo.
(*) Rafael Campos é especialista em Segurança Cibernética na AuditSafe.