A Apple anunciou, nos últimos dias, que vai lançar uma ferramenta, chamada NeuralHash, para procurar, de forma automática, imagens que envolvam pornografia infantil nos telemóveis, tablets e computadores da marca.

"Na Apple, o nosso objetivo é criar tecnologia que capacite as pessoas e enriqueça as suas vidas – ao mesmo tempo que as ajuda a manterem-se seguras. Queremos ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-las e explorá-las e limitar a disseminação de pornografia infantil", começou por explicar a multinacional norte-americana no seu site oficial.

Por um lado, a empresa esclareceu que vai fornecer recursos adicionais para ajudar as crianças e os pais a manterem-se seguros online e a obter ajuda em situações inseguras. Assim, por exemplo, se questionarem a Siri como podem denunciar abuso sexual de menores ou exploração infantil, serão direcionados para uma página com informações sobre realização de denúncias; se forem efetuadas pesquisas sobre pornografia infantil, os utilizadores vão ter de ler um texto que indica que "o interesse neste tópico é prejudicial e problemático" e serão fornecidos recursos para obterem ajuda.

"Queremos ajudar a proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-las e explorá-las e limitar a disseminação de pornografia infantil".

Quanto à ferramenta NeuralHash parece ser, por enquanto, uma realidade apenas nos Estados Unidos, e prevê a criação de um algoritmo, que gera um código para cada fotografia ou vídeo armazenados através de um dispositivo Apple no sistema de armazenamento em nuvem iCloud, de acordo com as características do conteúdo multimédia como  a cor e a composição.

Depois, este código é comparado de forma automática a outros códigos de imagens que envolvem pornografia infantil e que estão na base de dados do Centro Nacional para as Crianças Desaparecidos e Abusadas dos Estados Unidos. Caso haja coincidência entre os códigos das imagens dos dispositivos e da base de dados, o sistema gera um alarme e uma equipa especializada avalia o alerta. Caso se confirme, a empresa pode partir para uma denúncia às autoridades.

Caso haja coincidência entre os códigos das imagens dos dispositivos e da base de dados, o sistema gera um alarme e uma equipa especializada avalia o alerta. Caso se confirme, a empresa pode partir para uma denúncia às autoridades.

A Apple assegura que a privacidade dos utilizadores continua a ser garantida, uma vez que a empresa tecnológica não tem acesso aos conteúdos originais dos utilizadores, mas sim aos códigos associados a estes conteúdos, gerados de forma automática.

A medida tem sido aplaudida por uns, mas criticada por outros, incluindo vários especialistas que consideram a nova ferramenta uma porta aberta para a violação da privacidade dos utilizadores, tal como dá conta a plataforma espanhola de verificação de factos Maldita.es.

Matthew Green, professor de Criptografia na Universidade Johns Hopkins, , no Estado de Maryland, EUA, considera que o plano anunciado pela empresa de tecnologia "poderá ser um ingrediente chave para introduzir a vigilância aos sistemas de mensagens encriptadas", até agora uma bandeira da Apple. O docente alerta ainda que o sistema criado também pode abrir portas para o acesso aos ficheiros originais, através dos códigos automáticos associados a cada imagem armazenada no iCloud.

"Este tipo de ferramentas pode ser uma vantagem para encontrar pornografia infantil nos telefones das pessoas, mas imaginemos o que isso poderia fazer nas mãos de um Governo autoritário?", questionou.

O docente teme que a Apple eventualmente expanda o sistema para analisar imagens no iMessage e, dessa forma, "afetar pessoas inocentes" e não somente aquelas que cometem os crimes anteriormente mencionados. "Este tipo de ferramentas pode ser uma vantagem para encontrar pornografia infantil nos telefones das pessoas, mas imaginemos o que isso poderia fazer nas mãos de um Governo autoritário?", questionou.

Carmela Troncoso, especialista em segurança e privacidade, também mostra preocupação pelo facto de o algoritmo que vai ser utilizado para fazer rastreios poder falhar na criação dos códigos associados a cada conteúdo multimédia e, assim, dar azo a "acusações ilegítimas" aos utilizadores da marca.

Entre os apoiantes da iniciativa da Apple, está Julia Cordua, presidente da Thorn – organização criada em 2012 pelos atores Ashton Kutcher e Demi Moore com o objetivo de compreender o papel da tecnologia na facilitação do tráfico humano e exploração sexual infantil – que considerou que a tecnologia da Apple pondera "a necessidade de privacidade com a segurança digital das crianças".

E em Portugal?

A lei portuguesa faz com que seja improvável que a ferramenta que a Apple venha alguma vez a ser lançada no país. A legislação restringe o acesso a repositórios de dados e comunicações pessoais aos casos em que há uma mandado de um juiz, um requisito está protegido pela Constituição.

Numa entrevista ao Expresso, Raquel Brízida e Castro, constitucionalista e professora na Faculdade de Direito da Universidade de Lisboa, explica que o acesso a correspondência e a dados pessoais só pode ser feito com "autorização de um juiz de instrução criminal — e no contexto de um processo penal".

O direito à privacidade está consagrado pelo artigo 34º da Constituição da República Portuguesa, que, numa das alíneas, refere que "é proibida toda a ingerência das autoridades públicas na correspondência, nas telecomunicações e nos demais meios de comunicação, salvos os casos previstos na lei em matéria de processo criminal".

Também Luís Neto Galvão, especialista em questões de privacidade que trabalha na SRS Advogados, afirma ao Expresso que não tem dúvidas em considerar que a ferramenta NeuralHash não respeita o que determina a legislação nacional: "É uma tecnologia perfeitamente intrusiva e ultrapassa todos os limites do que é admissível. Cabe às autoridades de investigação criminal, no quadro da lei, aceder às clouds (repositórios de dados) privadas e não podem ser as plataformas a fazê-lo de sua iniciativa."

"Houve um enorme avanço na responsabilização das plataformas quanto a disseminação de conteúdos ilegais, nomeadamente com o futuro Digital Rights Act, mas isto não é comparável dado o grau de intrusão. É uma intromissão na esfera privada de clientes ou utilizadores que claramente viola direitos, liberdades e garantias", conclui.

Siga-nos na sua rede favorita.
International Fact-Checking Network