Deveria estar muito preocupado com a Lei dos Serviços Digitais
O artigo 11.º da Carta dos Direitos Fundamentais da UE, que reproduz uma parte do artigo 10.º da Convenção Europeia dos Direitos do Humanos, protege o direito dos cidadãos europeus a “ter opiniões e a receber e transmitir informações e ideias sem interferência da autoridade pública e sem fronteiras” e afirma que “a liberdade e o pluralismo da mídia devem ser respeitados”. Infelizmente, o destino da liberdade de expressão na Europa está agora em suspenso, uma vez que a União Europeia acaba de promulgar uma lei que dá poderes à Comissão para restringir significativamente a capacidade dos cidadãos de utilizarem as plataformas digitais para se envolverem num discurso democrático sólido e sincero.
De acordo com a Lei dos Serviços Digitais recentemente promulgada, a Comissão Europeia pode exercer pressões significativas sobre as plataformas digitais para travar o “discurso de ódio”, a “desinformação” e as ameaças ao “discurso cívico”, categorias notoriamente vagas e escorregadias, categorias que têm sido historicamente cooptadas para reforçar a narrativa da classe dominante. Ao dar à Comissão Europeia amplos poderes discricionários para supervisionar as políticas de moderação de conteúdos das Big Tech, esta peça legislativa torna a liberdade de expressão refém das propensões ideológicas de funcionários europeus não eleitos e dos seus exércitos de “sinalizadores de confiança”
Objetivo da Lei dos Serviços Digitais
O objetivo declarado da Lei dos Serviços Digitais (DSA), que acaba de entrar em vigor na Europa, é assegurar uma maior “harmonização” das condições que afectam a prestação de serviços digitais “intermediários”, em particular as plataformas em linha que alojam conteúdos partilhados pelos seus clientes. A lei abrange um leque muito vasto de questões, desde a proteção dos consumidores e a regulação dos algoritmos de publicidade até à pornografia infantil e à moderação de conteúdos. Entre outros objectivos que aparecem na redação da lei, encontramos a promoção de “um ambiente em linha seguro, previsível e digno de confiança”, a proteção da liberdade de expressão dos cidadãos e a harmonização dos regulamentos da UE que afectam as plataformas digitais em linha, que atualmente dependem das leis de cada Estado-Membro.
O DSA não é tão inocente como parece
À primeira vista, a Lei dos Serviços Digitais (DSA) pode parecer bastante inócua. Impõe requisitos bastante formais às “plataformas online de muito grande dimensão”, como a Google, o Twitter/X, o Facebook e o TikTok, no sentido de terem procedimentos de recurso claros e de serem transparentes quanto à sua regulamentação de conteúdos nocivos e ilegais. Por exemplo, a secção 45 da lei estabelece um requisito bastante leve para que os fornecedores de serviços digitais online (“serviços intermediários”) mantenham os clientes informados sobre os termos e condições e as políticas da empresa:
Os prestadores de serviços intermediários devem indicar claramente e manter actualizadas nos seus termos e condições as informações sobre os motivos com base nos quais podem restringir a prestação dos seus serviços. Devem, nomeadamente, incluir informações sobre quaisquer políticas, procedimentos, medidas e instrumentos utilizados para efeitos de moderação de conteúdos, incluindo a tomada de decisões por algoritmos e a análise humana, bem como o regulamento interno do seu sistema de tratamento de queixas. Devem também fornecer informações facilmente acessíveis sobre o direito de pôr termo à utilização do serviço.
Mas se começarmos a aprofundar a lei, rapidamente descobrimos que é venenosa para a liberdade de expressão e não está de acordo com o espírito do artigo 11.º da Carta dos Direitos Fundamentais da UE, que garante aos cidadãos a “liberdade de opinião e de receber e transmitir informações e ideias sem interferência da autoridade pública e sem consideração de fronteiras” Em seguida, descrevo em pormenor alguns aspectos da lei que, no seu conjunto, constituem uma ameaça sem precedentes à liberdade de expressão na Europa:
1. A DSA(Lei dos Serviços Digitais) cria entidades chamadas “sinalizadores de confiança” para denunciar “conteúdos ilegais” que identifiquem nas grandes plataformas online. A lei exige que as plataformas em linha respondam prontamente às denúncias de conteúdos ilegais feitas por estes “sinalizadores de confiança”, nomeados pelos “Coordenadores dos Serviços Digitais” designados pelos Estados-Membros A lei exige que as grandes plataformas online “tomem as medidas necessárias para garantir que as notificações apresentadas por sinalizadores de confiança, actuando na sua área de especialização designada, através dos mecanismos de notificação e ação exigidos pelo presente regulamento, sejam tratadas com prioridade“
2. Em termos estritos, embora as plataformas digitais sejam obrigadas a responder às denúncias de conteúdos ilegais apresentadas por “sinalizadores de confiança”, depreende-se da redação da lei que as plataformas têm poder discricionário para decidir como agir exatamente em relação a essas denúncias. Podem, por exemplo, discordar do parecer jurídico de um “sinalizador de confiança” e decidir não retirar o conteúdo sinalizado. No entanto, serão submetidas a auditorias periódicas sobre a conformidade das suas acções com a lei por auditores que trabalham em nome da Comissão Europeia, e essas auditorias dificilmente verão com bons olhos um padrão de inação face a conteúdos sinalizados.
3. A Lei dos Serviços Digitais também exige que as “plataformas online de muito grande dimensão” (plataformas como a Google, o YouTube, o Facebook e o Twitter) efectuem avaliações periódicas de “atenuação dos riscos”, nas quais abordem os “riscos sistémicos” associados às suas plataformas, incluindo, entre outros, a pornografia infantil, a “violência de género” (o que quer que isso signifique), a “desinformação” em matéria de saúde pública e os “efeitos negativos reais ou previsíveis nos processos democráticos, no discurso cívico e nos processos eleitorais, bem como na segurança pública” Nos termos da lei, as plataformas têm a obrigação de tomar as medidas adequadas para gerir estes riscos. Ao contrário de um código de conduta voluntário, a opção de não participar não é possível e o não cumprimento destas obrigações de “diligência devida” será objeto de sanções pesadas.
4. As sanções associadas ao incumprimento da lei são notáveis. A Comissão, se considerar que uma grande plataforma em linha, como a X/Twitter, não cumpriu a DSA, pode aplicar-lhe uma coima até 6% do seu volume de negócios anual global. Uma vez que a ideia de incumprimento é difícil de quantificar e bastante vaga (o que é exatamente necessário para cumprir as “obrigações de diligência devida” da gestão do risco sistémico?), parece provável que as empresas que desejam evitar dores de cabeça jurídicas e financeiras prefiram optar pela prudência e fazer uma demonstração de “conformidade” para evitar serem multadas.
5. As auditorias periódicas previstas nesta lei servirão de instrumento para a Comissão pressionar as grandes plataformas em linha a tomarem medidas para “gerir” os “riscos” de desinformação e as ameaças ao “discurso cívico e aos processos eleitorais”, riscos esses que são notoriamente vagos e provavelmente impossíveis de definir de forma politicamente imparcial. A ameaça que se esconde no fundo destas auditorias e das “recomendações” que lhes estão associadas é que a Comissão pode impor multas multimilionárias às plataformas online em caso de incumprimento. Devido à ideia bastante vaga de incumprimento das “obrigações de diligência devida” e à natureza discricionária das sanções financeiras previstas na DSA, esta lei criará uma atmosfera de incerteza jurídica tanto para as plataformas online como para os seus utilizadores. Incentiva fortemente as plataformas online a policiarem o discurso de uma forma que passe no crivo da Comissão Europeia, em torno de categorias vagas como “desinformação” e “discurso de ódio”, o que terá obviamente repercussões para os utilizadores finais.
6. De acordo com a Comissão Europeia, “os crimes e discursos motivados pelo ódio são ilegais ao abrigo da legislação da UE. O Quadro de Decisāo de 2008 relativo à luta contra certas formas de expressão do racismo e da xenofobia exige a criminalização do incitamento público à violência ou ao ódio com base na raça, cor, religião, ascendência ou origem nacional ou étnica.” É importante salientar que a Comissão Europeia defende a expansão das categorias de discurso de ódio ilegal a nível europeu para incluir não só “raça, cor, religião, descendência ou origem nacional ou étnica”, mas também novas categorias (presumivelmente, incluindo coisas como a identidade de género). Assim, o discurso de ódio ilegal é um “alvo em movimento” e é provável que se torne cada vez mais amplo e politicamente mais carregado com o passar do tempo. De acordo com o próprio website da Comissão Europeia,
Em 9 de dezembro de 2021, a Comissão Europeia adotou uma comunicação que solicita uma decisão do Conselho para alargar a atual lista de “crimes da UE” no artigo 83.º, n.º 1, do TFUE aos crimes de ódio e ao discurso de ódio. Se esta decisão do Conselho for adotada, a Comissão Europeia poderá, numa segunda fase, propor legislação secundária que permita à UE criminalizar outras formas de discurso e crimes de ódio, para além dos motivos racistas ou xenófobos.
7. O aspeto mais perturbador do DSA é o enorme poder e discrição que coloca nas mãos da Comissão Europeia – nomeadamente, uma comissão não eleita – para supervisionar o cumprimento do DSA e decidir quando as plataformas online não cumprem as suas “obrigações de diligência devida” para gerir riscos cujo significado é notoriamente vago e manipulável, como o discurso de ódio, a desinformação e o discurso anti-cívico. A Comissão Europeia está também a atribuir a si própria o poder de declarar uma emergência à escala europeia, o que lhe permitiria exigir intervenções adicionais por parte das plataformas digitais para combater uma ameaça pública. Não haverá certeza jurídica sobre quando a Comissão Europeia poderá declarar uma “emergência”. Também não existe qualquer certeza jurídica sobre a forma como a Comissão Europeia e os seus auditores interpretarão os “riscos sistémicos”, como a desinformação e o discurso de ódio, ou avaliarão os esforços dos prestadores de serviços para mitigar esses riscos, uma vez que se trata de poderes discricionários.
8 Também não é claro como é que a Comissão poderia realizar uma auditoria dos “riscos sistémicos” de desinformação e dos riscos para o discurso cívico e os processos eleitorais sem ter uma visão particular do que é verdadeiro e falso, da informação salutar e prejudicial, antecipando-se assim ao processo democrático através do qual os cidadãos avaliam estas questões por si próprios.
9. Também não é claro quais os controlos e equilíbrios que estarão em vigor para evitar que o DSA se torne uma arma para as causas favoritas da Comissão Europeia, seja a guerra na Ucrânia, a adoção de vacinas, a política climática ou a “guerra contra o terrorismo”. O amplo poder de declarar uma emergência pública e exigir que as plataformas realizem “avaliações” das suas políticas em resposta a isso, combinado com o amplo poder discricionário de multar as plataformas online por “não conformidade” com “obrigações de devida diligência” inerentemente vagas, dá à Comissão muita margem de manobra para dominar as plataformas online e pressioná-las a promover a sua narrativa política favorita.
10. Um aspeto particularmente sorrateiro desta lei é o facto de a Comissão estar efetivamente a tornar a desinformação ilegal *por uma porta das traseiras*, por assim dizer. Em vez de definirem claramente o que entendem por “desinformação” e de a tornarem ilegal – o que provavelmente causaria um alvoroço – estão a colocar um requisito de “devida diligência” às grandes plataformas online, como o Twitter e o Facebook, para que tomem medidas discricionárias contra a desinformação e para mitigarem os “riscos sistémicos” nas suas plataformas (que incluem o risco de “desinformação sobre a saúde pública”). Presumivelmente, as auditorias periódicas ao cumprimento da lei por parte destas empresas iriam olhar com maus olhos para as políticas que mal aplicam as regras de desinformação.
Assim, o efeito líquido da lei seria a aplicação de uma pressão quase irresistível sobre as plataformas dos meios de comunicação social para que estas joguem o jogo da “contra-desinformação” de forma a serem aprovadas pelos auditores da Comissão, evitando assim a aplicação de pesadas multas. Há muitas incertezas quanto ao grau de rigor ou de laxismo dessas auditorias e quanto aos tipos de incumprimento que poderão desencadear a aplicação de sanções financeiras. É bastante estranho que um regulamento legal que pretende defender a liberdade de expressão coloque o destino da liberdade de expressão à mercê dos julgamentos amplamente discricionários e inerentemente imprevisíveis de funcionários não eleitos.
A única esperança é que esta peça legislativa feia, complicada e regressiva acabe perante um juiz que compreenda que a liberdade de expressão não significa nada se for refém das opiniões da Comissão Europeia sobre a preparação para uma pandemia, a guerra Rússia-Ucrânia ou o que conta como discurso “ofensivo” ou “odioso”.
P.S. Considere esta análise como uma tentativa preliminar de alguém não especializado em direito europeu para lidar com as implicações preocupantes da Lei dos Serviços Digitais para a liberdade de expressão, com base numa primeira leitura. Aceito de bom grado as correcções e comentários de juristas e de todos aqueles que tiveram a paciência de analisar a lei por si próprios. Esta é a interpretação mais pormenorizada e rigorosa que elaborei da DSA até à data. Inclui nuances importantes que não estavam incluídas nas minhas interpretações anteriores e corrige certas interpretações erradas – em particular, as plataformas não são legalmente obrigadas a retirar todo o conteúdo sinalizado e as pessoas que sinalizam conteúdo ilegal são referidas como “sinalizadores de confiança” e não “verificadores de factos”).
Republicado a partir do Substack do autor
Suggest a correction