A segurança online é um tema cada vez mais debatido na atualidade, principalmente no que aos mais novos diz respeito. Com a evolução da tecnologia, as redes sociais cada vez mais variadas e os riscos escondidos atrás de um ecrã, é necessário proteger as crianças e o Reino Unido já tomou uma atitude.

Esta sexta-feira, dia 25 de julho, as redes sociais e outras plataformas online no Reino Unido passam a estar obrigadas a implementar medidas de segurança para proteger as crianças - e não só - de conteúdo nocivo, sob pena de multas pesadas.

Trata-se da Lei de Segurança Online, uma legislação histórica que abrange empresas como Facebook, Instagram, TikTok, YouTube e Google. Segundo a Ofcom, a agência reguladora de Segurança Online do Reino Unido e responsável pela aplicação da lei, 8% das crianças de 8 a 14 anos visitaram um site ou aplicação pornográfica online ao longo de um mês.

A legislação em causa estabelece um conjunto de leis que protege crianças e adultos online através de uma série de obrigações aplicadas às empresas e motores de busca, responsabilizando-os pela segurança dos utilizadores nas suas plataformas. Assim, estas estão sujeitas a novas regras para "implementar sistemas e processos que reduzam os riscos de seus serviços serem usados para atividades ilegais e para remover conteúdo ilegal quando ele aparecer".

A adesão não é obrigatória se as empresas considerarem que possuem medidas alternativas válidas para cumprir suas obrigações de segurança infantil.

Como se traduz a nova legislação e a quem se aplica?

De acordo com o jornal The Guardian, as empresas abrangidas pela nova legislação devem implementar medidas de segurança que protejam menores. Com o foco nas crianças, todos os sites pornográficos têm de implementar procedimentos rigorosos de verificação de idade.

Já as redes sociais e motores de busca devem impedir menores de acederem a pornografia e materiais que promovam ou incentivem o suicídio, automutilação e transtornos alimentares. Tudo isto deve ser completamente excluído dos feeds infantis.

As plataformas também terão que suprimir a disseminação de outras formas de material potencialmente prejudicial às crianças, incluindo a promoção de desafios perigosos, o incentivo ao uso de substâncias nocivas e o incentivo ao bullying.

A lei também protege adultos, garantindo que as principais plataformas sejam mais transparentes sobre que conteúdos são potencialmente prejudiciais, permitindo dar às pessoas maior controlo sobre os tipos de conteúdo que desejam ver.

Mesmo serviços cujas empresas estejam fora do Reino Unido, caso tenham vínculos com o Reino Unido, estão abrangidas. Isto inclui serviços com um número significativo de utilizadores no Reino Unido, ou se estes forem um mercado-alvo e houver risco material de danos significativos a estes.

Como funcionará a verificação de idade?

As medidas de verificação de idade para plataformas de pornografia incluem a estimativa da idade facial, que avalia a idade provável de uma pessoa através de uma foto ou vídeo ao vivo; a verificação da idade de uma pessoa através da sua operadora de cartão de crédito, banco ou operadora de rede de móvel; correspondência de identidade com foto, onde um passaporte ou cartão de cidadão é verificado com uma selfie; ou uma “carteira de identidade digital” que contenha comprovativo de idade.

Segundo Ria Moody, advogada do escritório Linklaters em declarações ao The Guardian, estas medidas "devem ser muito precisas".

Em termos práticos, plataformas como o Pornhub ou Only Fans já tomaram medidas. No primeiro caso serão introduzidos "métodos de verificação de idade aprovados por órgãos reguladores" até esta sexta-feira e no segundo, a empresa já utiliza um software de verificação de idade facial, que estima a idade através de dados recolhidos de milhões de outras imagens.

Utilizadores adulto terão mais controlo sobre o que veem. Como?

Quanto aos utilizadores adultos, terão mais ferramentas para que possam ter maior controlo do que veem e com quem interagem online. Como? Estes utilizadores terão à sua disposição ferramentas que, mediante verificação da identidade, lhes permitirão reduzir a probabilidade de verem conteúdo de utilizadores não verificados e impedir que estes interajam consigo. O objetivo é impedir contas anónimas de os contactarem.

Os serviços de utilizador para utilizador, conhecidos como serviços de Categoria 1, terão de oferecer aos adultos ferramentas que, se optarem por usar, darão a maior controlo sobre o conteúdo que consomem.

Estas categorias de conteúdo que protegem o utilizador estão definidas na Lei e incluem "conteúdo que não atende a um limite criminal, mas incentiva, promove ou fornece instruções para suicídio, automutilação ou transtornos alimentares" - diretrizes essas que já protegem as crianças - e ainda "conteúdo abusivo ou de ódio, incluindo conteúdo racista, antissemita, homofóbico ou misógino".

Segundo a Lei, "as ferramentas devem ser eficazes e de fácil acesso".

Que crimes foram introduzidos na lei?

Quanto aos crimes introduzidos pela nova legislação, estes incluem o encorajamento ou auxílio à automutilação grave; ciberflash; envio de informações falsas com a intenção de causar danos; ameaças, abuso de imagem íntima; partidas que possam causar crises epilépticas.

Com estes crimes introduzidos na legislação, todas as empresas devem tomar medidas rigorosas contra conteúdo e atividades ilegais. Assim, as plataformas têm de implementar sistemas para remover conteúdo ilegal quando este surja e os motores de busca também têm de tomar medidas para reduzir os riscos de os utilizadores encontrarem conteúdo ilegal por meio de seus serviços.

Estes novos crimes aplicam-se diretamente aos indivíduos que os enviam, e já foram proferidas condenações pelos delitos de ciberflashing e ameaças.

Que medidas as plataformas têm de implementar?

Para não incorrerem em crime, as empresas devem tomar medidas rigorosas como remover "conteúdo ilegal quando houver uma vítima individual (real ou intencional), quando lhes for sinalizado ou quando tomarem conhecimento dele por qualquer outro meio".

As obrigações não se limitam à remoção de conteúdo ilegal existente ou medidas proativas face a atividades legais, mas visam também impedir que estes conteúdos apareçam. As plataformas têm de pensar em como projetar os seus sites de forma a reduzir a probabilidade de serem usados para atividades criminosas.

A lei exige ainda que as empresas de redes sociais apliquem limites de idade de forma consistente. De acordo com a nota explicativa do Governo britânico a propósito desta nova Lei, as empresas "devem avaliar os riscos para crianças decorrentes do uso das suas plataformas e definir restrições de idade adequadas, garantindo que os utilizadores infantis tenham experiências adequadas à sua idade".

Assim, as empresas que utilizam medidas para impedir o acesso de crianças menores de uma determinada idade aos seus serviços devem "especificar em seus termos de serviço quais medidas estão a ser utilizadas para impor esse limite de idade e aplicá-lo de forma consistente".

Que multas podem ser aplicadas?

A Ofcom irá fiscalizar os processos e terá poderes para tomar medidas contra empresas que não cumpram suas novas obrigações.

Quem não cumprir as regras pode ser multado em até 18 milhões de libras (mais de 20 milhões de euros) ou 10% da sua receita global, consoante o que for maior.

Também poderão ser aplicadas ações criminais contra gerentes seniores que não garantirem que as empresas sigam os pedidos de informações do regulador. A Ofcom também poderá responsabilizar criminalmente empresas e gerentes seniores (quando houver culpa).

Nos casos mais extremos, com a concordância dos tribunais, a Ofcom poderá exigir que provedores de pagamento, anunciantes e provedores de serviços de internet parem de trabalhar com um site, impedindo que ele gere dinheiro ou esteja disponível no Reino Unido.

Algoritmos também têm de ser revistos?

Os algoritmos podem impactar a exposição dos utilizadores a conteúdo ilegal e a exposição de crianças a conteúdo prejudicial. Por isso, as empresas terão também de tomar medidas para mitigar eficazmente quaisquer riscos identificados. Isso inclui considerar o design, as funcionalidades, os algoritmos e quaisquer outros recursos da plataforma que possam interferir com as obrigações de segurança de conteúdo ilegal e infantil.

A lei "também deixa claro que danos podem surgir da maneira como o conteúdo é disseminado, como quando um algoritmo envia conteúdo repetidamente para uma criança em grandes volumes em um curto espaço de tempo", pelo que os serviços categorizados serão obrigados a publicar relatórios anuais de transparência com "informações relacionadas com a segurança online", onde se incluem "os algoritmos que usam e os seus efeitos na experiência dos utilizadores.

Lei também combate desinformação?

Sim. A Lei de Segurança Online procura também combater a desinformação "concentrando-se em abordar os maiores riscos de danos aos utilizadores, ao mesmo tempo em que protege a liberdade de expressão".

As empresas serão forçadas a "tomar medidas para remover conteúdo" que configure desinformação "caso tomem conhecimento dele". Tal inclui a "remoção de desinformação ilegal patrocinada pelo Estado por meio da Lei de Interferência Estrangeira, forçando as empresas a tomarem medidas".

As empresas também devem avaliar se os seus serviços têm probabilidade de serem acedidos por crianças e, em caso positivo, oferecer proteções adicionais contra a desinformação.