{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/my-europe/2023/10/19/o-projeto-de-legislacao-comunitaria-sobre-abuso-sexual-de-criancas-deu-origem-a-uma-amarga" }, "headline": "O projeto de legisla\u00e7\u00e3o comunit\u00e1ria sobre abuso sexual de crian\u00e7as deu origem a uma amarga pol\u00e9mica sobre privacidade. Porqu\u00ea?", "description": "H\u00e1 quem defenda que a proposta de lei da UE pode dar in\u00edcio a uma vigil\u00e2ncia em massa no bloco atrav\u00e9s da an\u00e1lise de todas as comunica\u00e7\u00f5es, incluindo as mensagens encriptadas.", "articleBody": "Rhiannon tinha apenas treze anos quando foi aliciada na internet, coagida e abusada sexualmente. O seu agressor foi acusado, mas o impacto dos seus crimes \u00e9 profundo. \u0022N\u00e3o falei sobre o meu abuso durante muito tempo\u0022, disse Rhiannon \u00e0 Euronews. \u0022Sofri de ansiedade, ataques de p\u00e2nico, depress\u00e3o, automutila\u00e7\u00e3o e tentativas de suic\u00eddio\u0022. Hoje, aos 33 anos, Rhiannon sabe que as imagens e os v\u00eddeos do seu abuso continuam a circular na Internet. Mas ela fala, apelando a uma regulamenta\u00e7\u00e3o mais forte para travar os predadores sexuais. Esta quinta-feira, os ministros da Uni\u00e3o Europeia discutem novas leis abrangentes propostas pela Comiss\u00e3o Europeia para combater o abuso sexual de crian\u00e7as em linha e garantir que crimes como os cometidos contra Rhiannon n\u00e3o sejam revividos dia ap\u00f3s dia na Internet. Cidad\u00e3 brit\u00e2nica, Rhiannon afirma que a proposta de regulamento da UE, juntamente com o projeto de lei sobre seguran\u00e7a em linha do Reino Unido, que em breve se tornar\u00e1 lei, s\u00e3o fundamentais na luta global contra o abuso sexual de crian\u00e7as. A legisla\u00e7\u00e3o europeia prev\u00ea a utiliza\u00e7\u00e3o de tecnologias emergentes para detetar material de abuso sexual de crian\u00e7as (CSAM) e actividades de aliciamento de crian\u00e7as, novas ou j\u00e1 existentes, e confere \u00e0s autoridades nacionais o poder de obrigar os servi\u00e7os digitais a analisar as comunica\u00e7\u00f5es dos utilizadores, incluindo as mensagens codificadas. No entanto, surgiu uma pol\u00e9mica amarga, que op\u00f5e os defensores da prote\u00e7\u00e3o das crian\u00e7as aos grupos de press\u00e3o dos direitos digitais, que afirmam que o regulamento ir\u00e1 instigar um regime de vigil\u00e2ncia em massa e significar o fim da privacidade digital tal como a conhecemos. Os apoiantes afirmam que se o regulamento n\u00e3o for aprovado, os criminosos n\u00e3o ser\u00e3o detectados e as grandes empresas tecnol\u00f3gicas n\u00e3o ser\u00e3o regulamentadas. Entre os dois campos h\u00e1 uma corda bamba que se est\u00e1 a revelar dif\u00edcil de percorrer: como apanhar os abusadores de crian\u00e7as sem p\u00f4r em causa a nossa privacidade online. As tecnologias est\u00e3o suficientemente maduras? Para detetar o material pedopornogr\u00e1fico conhecido pelas autoridades policiais, a Comiss\u00e3o prop\u00f4s a utiliza\u00e7\u00e3o da chamada fun\u00e7\u00e3o hash percetual , que obt\u00e9m uma impress\u00e3o digital, ou hash, dos ficheiros nocivos e detecta r\u00e9plicas na Internet. Mas os peritos acad\u00e9micos alertam para o facto de os autores poderem facilmente manipular as imagens para evitar a dete\u00e7\u00e3o e de utilizadores inocentes poderem ser injustamente acusados: \u0022O problema \u00e9 que \u00e9 muito f\u00e1cil quebrar o hash mudando um pixel ou mesmo cortando ligeiramente a imagem\u0022, explicou o professor Bart Preneel, especialista em criptografia da Universidade KU Leuven. \u0022Tamb\u00e9m \u00e9 poss\u00edvel que uma imagem perfeitamente leg\u00edtima seja assinalada como um falso positivo.\u0022 A Comiss\u00e3o pretende criar um Centro Europeu para o Abuso Sexual de Crian\u00e7as, em Haia, onde ser\u00e1 contratado pessoal para filtrar manualmente os conte\u00fados assinalados como ilegais, a fim de evitar inundar as autoridades policiais com falsos positivos. Mas a organiza\u00e7\u00e3o da sociedade civil EAT International afirma que existem provas suficientes de que as tecnologias de hash percetual funcionam de facto. \u0022Estas tecnologias n\u00e3o s\u00e3o apenas prometedoras, est\u00e3o comprovadas. Os m\u00e9todos baseados em hash s\u00e3o eficazes h\u00e1 mais de uma d\u00e9cada, permitindo uma a\u00e7\u00e3o mais r\u00e1pida contra conte\u00fados ilegais e ajudando a aplica\u00e7\u00e3o da lei. Por exemplo, mais de 200 empresas utilizam a tecnologia PhotoDNA para impedir que os seus servi\u00e7os sejam utilizados para difundir materiais relacionados com o abuso sexual de crian\u00e7as\u0022, afirmou um porta-voz da EAT. A Comiss\u00e3o tamb\u00e9m quer utilizar a intelig\u00eancia artificial (IA) para detetar CSAM rec\u00e9m-criados, bem como para assinalar padr\u00f5es de comportamento que possam constituir aliciamento de crian\u00e7as. Preneel disse \u00e0 Euronews que estes m\u00e9todos representam um risco ainda maior de falsa incrimina\u00e7\u00e3o. \u0022Mesmo que reduz\u00edssemos a taxa de erro para 1%, com milhares de milh\u00f5es de imagens enviadas todos os dias para a UE, poder\u00edamos estar perante dezenas de milh\u00f5es de falsos positivos di\u00e1rios\u0022, alertou Preneel. \u0022Poder\u00edamos estar a incriminar pessoas inocentes, acusando-as dos crimes mais graves\u0022. Preneel adverte tamb\u00e9m que os adolescentes que partilham volunt\u00e1ria e legalmente imagens de nudez entre si podem ser injustamente criminalizados. Mas, embora reconhe\u00e7a que os modelos de IA baseados na linguagem para detetar comportamentos de aliciamento ainda precisam de amadurecer, a EAT diz que a IA foi implantada com sucesso para detetar novos CSAM com \u0022baixas taxas de erro\u0022. \u0022As ferramentas de dete\u00e7\u00e3o de CSAM s\u00e3o especificamente treinadas para n\u00e3o encontrar imagens legais\u0022, explicou o porta-voz da EAT. \u0022Estas ferramentas s\u00e3o treinadas em CSAM conhecidas, pornografia para adultos e imagens benignas, particularmente para fazer a distin\u00e7\u00e3o e para evitar que imagens benignas sejam mal interpretadas como CSAM\u0022. Mi\u00e9 Kohiyama, outra sobrevivente de abuso sexual de crian\u00e7as em Fran\u00e7a que, tal como Rhiannon, defende uma regulamenta\u00e7\u00e3o mais forte, afirma que a preval\u00eancia de imagens e v\u00eddeos de abuso de crian\u00e7as em linha significa que a Uni\u00e3o Europeia tem a responsabilidade de tomar medidas. \u0022Mais de 60% destas imagens est\u00e3o alojadas em servidores europeus, pelo que temos a responsabilidade de atuar\u0022, explicou. \u0022A dete\u00e7\u00e3o \u00e9 fundamental e a remo\u00e7\u00e3o \u00e9 fundamental.\u0022 As novas regras prejudicam a privacidade? O aspeto mais contestado da proposta da Comiss\u00e3o \u00e9 a obriga\u00e7\u00e3o de as empresas tecnol\u00f3gicas utilizarem a tecnologia de scanning do lado do cliente (CSS) para analisar as mensagens dos utilizadores, incluindo as comunica\u00e7\u00f5es encriptadas de ponta a ponta em plataformas como o Whatsapp da Meta, quando \u00e9 identificado um risco. Isto significaria que as mensagens encriptadas, as fotografias, os e-mails e as notas de voz dos utilizadores poderiam ser alvo de uma escuta. Os defensores da privacidade alertam para o facto de esta medida constituir uma grave viola\u00e7\u00e3o do direito \u00e0 privacidade das pessoas em linha e poder ser facilmente manipulada por agentes maliciosos. O CSS foi implementado brevemente pela Apple em 2021 para verificar os s do iCloud, mas foi retirado em poucas semanas quando o sistema foi sequestrado. Mas a EAT International diz que \u00e9 importante lembrar que o CSS opera \u0022antes que os dados sejam criptografados\u0022. O CSS funciona \u0022antes de os dados serem encriptados\u0022, sinalizando o CSAM antes de este ser carregado e enviado atrav\u00e9s de um ambiente encriptado - da mesma forma que o WhatsApp, um servi\u00e7o encriptado de ponta a ponta, j\u00e1 utiliza tecnologia para detetar malware e v\u00edrus\u0022, afirmou um porta-voz da EAT. Os cr\u00edticos tamb\u00e9m alertam para o facto de a encripta\u00e7\u00e3o poder abrir um precedente perigoso para os regimes autorit\u00e1rios, que poderiam manipular a tecnologia para detetar cr\u00edticas e atingir dissidentes. Mi\u00e9 afirma que este tipo de alarmismo \u00e9 simplesmente uma forma de desviar a aten\u00e7\u00e3o da verdadeira quest\u00e3o. \u0022A Europa \u00e9 uma democracia, n\u00e3o uma ditadura. E n\u00e3o sejamos ing\u00e9nuos: numa ditadura, quando se quer espiar os cidad\u00e3os, espia-se os cidad\u00e3os. N\u00e3o \u00e9 necess\u00e1rio um novo regulamento\u0022. Ser\u00e1 que os ministros da UE conseguem chegar a um compromisso? A proposta de regulamento tem dividido as capitais da UE, com muitos preocupados com a maturidade das tecnologias e a amea\u00e7a \u00e0 privacidade dos consumidores. Os ministros podem optar por dar luz verde a certos aspectos do texto, enquanto outros planos ficam em suspenso at\u00e9 que as tecnologias tenham amadurecido o suficiente. Mi\u00e9 e Rhiannon disseram \u00e0 Euronews que os ministros devem evitar ceder \u00e0 press\u00e3o dos lobbies das grandes empresas tecnol\u00f3gicas e digitais. O aumento acentuado de material abusivo mostra que as medidas volunt\u00e1rias das empresas tecnol\u00f3gicas para detetar e retirar conte\u00fados s\u00e3o claramente insuficientes. Um estudo divulgado na ter\u00e7a-feira pela WeProtect Global Alliance sugere que o material de abuso sexual infantil relatado aumentou 87% desde 2019. \u0022As empresas de tecnologia projetam os produtos para atrair crian\u00e7as e envolv\u00ea-las o maior tempo poss\u00edvel. Se esse \u00e9 o modelo deles, tem que ser um ambiente seguro para as crian\u00e7as\u0022, disse Rhiannon. \u0022O modelo de autorregula\u00e7\u00e3o das empresas tecnol\u00f3gicas n\u00e3o tem funcionado, o que \u00e9 evidente pelo n\u00famero de crian\u00e7as v\u00edtimas de abusos. Temos de legislar sobre esta quest\u00e3o, temos de obrigar as empresas tecnol\u00f3gicas a proteger as crian\u00e7as\u0022, acrescentou. Mi\u00e9 tamb\u00e9m acredita que o bloco tem a responsabilidade de proteger os sobreviventes de abusadores que usam meios digitais de uma dupla traumatiza\u00e7\u00e3o ao saberem que as imagens dos abusos que lhes foram inflingidos est\u00e3o a ser vistas todos os dias. \u0022Estes sobreviventes t\u00eam medo de tudo. N\u00e3o podem sair de casa. Para alguns deles, t\u00eam medo at\u00e9 de utilizar a Internet. S\u00e3o pessoas que est\u00e3o totalmente marginalizadas da sociedade\u0022, disse. \u0022Temos de as proteger. Temos de proteger as crian\u00e7as. \u00c9 uma quest\u00e3o que tem de estar em primeiro lugar na mente de toda a gente\u0022. ", "dateCreated": "2023-10-18T18:03:00+02:00", "dateModified": "2023-10-19T16:47:07+02:00", "datePublished": "2023-10-19T16:46:47+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F97%2F76%2F30%2F1440x810_cmsv2_9858f333-340e-5904-9ec2-cee82d0ab6d1-7977630.jpg", "width": "1440px", "height": "810px", "caption": "Uma crian\u00e7a brinca com um telem\u00f3vel", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F97%2F76%2F30%2F432x243_cmsv2_9858f333-340e-5904-9ec2-cee82d0ab6d1-7977630.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": { "@type": "Person", "name": "Mared Gwyn Jones", "sameAs": "https://twitter.com/MaredGwyn" }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": "403px", "height": "60px" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Decifrar a Europa" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/pt.euronews", "https://twitter.com/euronewspt", "https://flipboard.com/@euronewspt", "https://www.linkedin.com/company/euronews" ] } ] }
PUBLICIDADE

O projeto de legislação comunitária sobre abuso sexual de crianças deu origem a uma amarga polémica sobre privacidade. Porquê?

Uma criança brinca com um telemóvel
Uma criança brinca com um telemóvel Direitos de autor Michal Dyjuk/Copyright 2022 The AP. All rights reserved
Direitos de autor Michal Dyjuk/Copyright 2022 The AP. All rights reserved
De Mared Gwyn Jones
Publicado a
Partilhe esta notíciaComentários
Partilhe esta notíciaClose Button

Há quem defenda que a proposta de lei da UE pode dar início a uma vigilância em massa no bloco através da análise de todas as comunicações, incluindo as mensagens encriptadas.

PUBLICIDADE

Rhiannon tinha apenas treze anos quando foi aliciada na internet, coagida e abusada sexualmente.

O seu agressor foi acusado, mas o impacto dos seus crimes é profundo.

"Não falei sobre o meu abuso durante muito tempo", disse Rhiannon à Euronews. "Sofri de ansiedade, ataques de pânico, depressão, automutilação e tentativas de suicídio".

Hoje, aos 33 anos, Rhiannon sabe que as imagens e os vídeos do seu abuso continuam a circular na Internet. Mas ela fala, apelando a uma regulamentação mais forte para travar os predadores sexuais.

Esta quinta-feira, os ministros da União Europeia discutem novas leis abrangentes propostas pela Comissão Europeia para combater o abuso sexual de crianças em linha e garantir que crimes como os cometidos contra Rhiannon não sejam revividos dia após dia na Internet.

Cidadã britânica, Rhiannon afirma que a proposta de regulamento da UE, juntamente com o projeto de lei sobre segurança em linha do Reino Unido, que em breve se tornará lei, são fundamentais na luta global contra o abuso sexual de crianças.

A legislação europeia prevê a utilização de tecnologias emergentes para detetar material de abuso sexual de crianças (CSAM) e actividades de aliciamento de crianças, novas ou já existentes, e confere às autoridades nacionais o poder de obrigar os serviços digitais a analisar as comunicações dos utilizadores, incluindo as mensagens codificadas.

No entanto, surgiu uma polémica amarga, que opõe os defensores da proteção das crianças aos grupos de pressão dos direitos digitais, que afirmam que o regulamento irá instigar um regime de vigilância em massa e significar o fim da privacidade digital tal como a conhecemos. Os apoiantes afirmam que se o regulamento não for aprovado, os criminosos não serão detectados e as grandes empresas tecnológicas não serão regulamentadas.

Entre os dois campos há uma corda bamba que se está a revelar difícil de percorrer: como apanhar os abusadores de crianças sem pôr em causa a nossa privacidade online.

As tecnologias estão suficientemente maduras?

Para detetar o material pedopornográfico conhecido pelas autoridades policiais, a Comissão propôs a utilização da chamada função hash percetual, que obtém uma impressão digital, ou hash, dos ficheiros nocivos e detecta réplicas na Internet.

Mas os peritos académicos alertam para o facto de os autores poderem facilmente manipular as imagens para evitar a deteção e de utilizadores inocentes poderem ser injustamente acusados: "O problema é que é muito fácil quebrar o hash mudando um pixel ou mesmo cortando ligeiramente a imagem", explicou o professor Bart Preneel, especialista em criptografia da Universidade KU Leuven. "Também é possível que uma imagem perfeitamente legítima seja assinalada como um falso positivo."

A Comissão pretende criar um Centro Europeu para o Abuso Sexual de Crianças, em Haia, onde será contratado pessoal para filtrar manualmente os conteúdos assinalados como ilegais, a fim de evitar inundar as autoridades policiais com falsos positivos.

Mas a organização da sociedade civil EAT International afirma que existem provas suficientes de que as tecnologias de hash percetual funcionam de facto.

"Estas tecnologias não são apenas prometedoras, estão comprovadas. Os métodos baseados em hash são eficazes há mais de uma década, permitindo uma ação mais rápida contra conteúdos ilegais e ajudando a aplicação da lei. Por exemplo, mais de 200 empresas utilizam a tecnologia PhotoDNA para impedir que os seus serviços sejam utilizados para difundir materiais relacionados com o abuso sexual de crianças", afirmou um porta-voz da EAT.

A Comissão também quer utilizar a inteligência artificial (IA) para detetar CSAM recém-criados, bem como para assinalar padrões de comportamento que possam constituir aliciamento de crianças. Preneel disse à Euronews que estes métodos representam um risco ainda maior de falsa incriminação.

"Mesmo que reduzíssemos a taxa de erro para 1%, com milhares de milhões de imagens enviadas todos os dias para a UE, poderíamos estar perante dezenas de milhões de falsos positivos diários", alertou Preneel. "Poderíamos estar a incriminar pessoas inocentes, acusando-as dos crimes mais graves".

Preneel adverte também que os adolescentes que partilham voluntária e legalmente imagens de nudez entre si podem ser injustamente criminalizados.

Mas, embora reconheça que os modelos de IA baseados na linguagem para detetar comportamentos de aliciamento ainda precisam de amadurecer, a EAT diz que a IA foi implantada com sucesso para detetar novos CSAM com "baixas taxas de erro".

"As ferramentas de deteção de CSAM são especificamente treinadas para não encontrar imagens legais", explicou o porta-voz da EAT. "Estas ferramentas são treinadas em CSAM conhecidas, pornografia para adultos e imagens benignas, particularmente para fazer a distinção e para evitar que imagens benignas sejam mal interpretadas como CSAM".

Mié Kohiyama, outra sobrevivente de abuso sexual de crianças em França que, tal como Rhiannon, defende uma regulamentação mais forte, afirma que a prevalência de imagens e vídeos de abuso de crianças em linha significa que a União Europeia tem a responsabilidade de tomar medidas.

"Mais de 60% destas imagens estão alojadas em servidores europeus, pelo que temos a responsabilidade de atuar", explicou. "A deteção é fundamental e a remoção é fundamental."

As novas regras prejudicam a privacidade?

O aspeto mais contestado da proposta da Comissão é a obrigação de as empresas tecnológicas utilizarem a tecnologia de scanning do lado do cliente (CSS) para analisar as mensagens dos utilizadores, incluindo as comunicações encriptadas de ponta a ponta em plataformas como o Whatsapp da Meta, quando é identificado um risco.

Isto significaria que as mensagens encriptadas, as fotografias, os e-mails e as notas de voz dos utilizadores poderiam ser alvo de uma escuta.

Os defensores da privacidade alertam para o facto de esta medida constituir uma grave violação do direito à privacidade das pessoas em linha e poder ser facilmente manipulada por agentes maliciosos. O CSS foi implementado brevemente pela Apple em 2021 para verificar os s do iCloud, mas foi retirado em poucas semanas quando o sistema foi sequestrado.

Mas a EAT International diz que é importante lembrar que o CSS opera "antes que os dados sejam criptografados".

O CSS funciona "antes de os dados serem encriptados", sinalizando o CSAM antes de este ser carregado e enviado através de um ambiente encriptado - da mesma forma que o WhatsApp, um serviço encriptado de ponta a ponta, já utiliza tecnologia para detetar malware e vírus", afirmou um porta-voz da EAT.

Os críticos também alertam para o facto de a encriptação poder abrir um precedente perigoso para os regimes autoritários, que poderiam manipular a tecnologia para detetar críticas e atingir dissidentes.

Mié afirma que este tipo de alarmismo é simplesmente uma forma de desviar a atenção da verdadeira questão.

"A Europa é uma democracia, não uma ditadura. E não sejamos ingénuos: numa ditadura, quando se quer espiar os cidadãos, espia-se os cidadãos. Não é necessário um novo regulamento".

Será que os ministros da UE conseguem chegar a um compromisso?

A proposta de regulamento tem dividido as capitais da UE, com muitos preocupados com a maturidade das tecnologias e a ameaça à privacidade dos consumidores. Os ministros podem optar por dar luz verde a certos aspectos do texto, enquanto outros planos ficam em suspenso até que as tecnologias tenham amadurecido o suficiente.

Mié e Rhiannon disseram à Euronews que os ministros devem evitar ceder à pressão dos lobbies das grandes empresas tecnológicas e digitais. O aumento acentuado de material abusivo mostra que as medidas voluntárias das empresas tecnológicas para detetar e retirar conteúdos são claramente insuficientes. Um estudo divulgado na terça-feira pela WeProtect Global Alliance sugere que o material de abuso sexual infantil relatado aumentou 87% desde 2019.

"As empresas de tecnologia projetam os produtos para atrair crianças e envolvê-las o maior tempo possível. Se esse é o modelo deles, tem que ser um ambiente seguro para as crianças", disse Rhiannon.

"O modelo de autorregulação das empresas tecnológicas não tem funcionado, o que é evidente pelo número de crianças vítimas de abusos. Temos de legislar sobre esta questão, temos de obrigar as empresas tecnológicas a proteger as crianças", acrescentou.

Mié também acredita que o bloco tem a responsabilidade de proteger os sobreviventes de abusadores que usam meios digitais de uma dupla traumatização ao saberem que as imagens dos abusos que lhes foram inflingidos estão a ser vistas todos os dias.

"Estes sobreviventes têm medo de tudo. Não podem sair de casa. Para alguns deles, têm medo até de utilizar a Internet. São pessoas que estão totalmente marginalizadas da sociedade", disse. "Temos de as proteger. Temos de proteger as crianças. É uma questão que tem de estar em primeiro lugar na mente de toda a gente".

Ir para os atalhos de ibilidade
Partilhe esta notíciaComentários

Notícias relacionadas

Vítimas de abuso sexual infantil na UE enfrentam uma "lotaria de códigos postais" de injustiça, alerta relatório

Porque é que as novas tensões com os vizinhos atrasaram o pedido de adesão da Macedónia do Norte à UE

Como é que a UE vai explorar os ativos da Rússia para angariar 35 mil milhões de euros para a Ucrânia?