La loi sur les services numériques devrait vous inquiéter au plus haut point
L’article 11 de la Charte des droits fondamentaux de l’UE, qui reprend une partie de l’article 10 de la Convention européenne des droits de l’homme, protège le droit des citoyens européens « d’avoir des opinions et de recevoir et de communiquer des informations et des idées sans qu’il puisse y avoir ingérence d’autorités publiques et sans considération de frontières », et affirme que « la liberté et le pluralisme des médias doivent être respectés ». Malheureusement, le sort de la liberté d’expression en Europe est aujourd’hui en suspens, car l’Union européenne vient de promulguer une loi qui autorise la Commission à restreindre considérablement la capacité des citoyens à utiliser les plateformes numériques pour s’engager dans un discours démocratique solide et sincère.
En vertu de la loi sur les services numériques récemment adoptée, la Commission européenne peut exercer des pressions considérables sur les plateformes numériques afin de limiter les « discours de haine », la « désinformation » et les menaces pesant sur le « discours civique », autant de catégories notoirement vagues et glissantes qui ont été historiquement cooptées pour renforcer le discours de la classe dirigeante. En donnant à la Commission européenne de larges pouvoirs discrétionnaires pour superviser les politiques de modération des contenus des Big Tech, ce texte législatif prend la liberté d’expression en otage des penchants idéologiques de fonctionnaires européens non élus et de leurs armées de « signaleurs de confiance »
Objectif de la loi sur les services numériques
L’objectif déclaré de la loi sur les services numériques (DSA) qui vient d’entrer en vigueur en Europe est d’assurer une plus grande « harmonisation » des conditions affectant la fourniture de services numériques « intermédiaires », en particulier les plates-formes en ligne qui hébergent des contenus partagés par leurs clients. La loi couvre un large éventail de questions, allant de la protection des consommateurs à la réglementation des algorithmes publicitaires, en passant par la pornographie enfantine et la modération des contenus. Parmi les autres objectifs qui apparaissent dans le libellé de la loi, nous trouvons la promotion d’un « environnement en ligne sûr, prévisible et digne de confiance », la protection de la liberté d’expression des citoyens et l’harmonisation des réglementations de l’UE concernant les plateformes numériques en ligne, qui dépendent actuellement des lois des différents États membres.
L’ASD n’est pas aussi innocente qu’il y paraît
À première vue, la loi sur les services numériques (DSA) peut sembler plutôt inoffensive. Elle impose aux « très grandes plateformes en ligne » telles que Google, Twitter/X, Facebook et TikTok des exigences relativement formelles en matière de procédures d’appel claires et de transparence quant à leur réglementation des contenus préjudiciables et illégaux. Par exemple, l’article 45 de la loi se lit comme une exigence assez légère selon laquelle les fournisseurs de services numériques en ligne (« services intermédiaires« ) doivent tenir leurs clients informés des conditions générales et des politiques de l’entreprise :
Les fournisseurs de services intermédiaires doivent clairement indiquer et maintenir à jour dans leurs conditions générales les informations relatives aux motifs sur la base desquels ils peuvent restreindre la fourniture de leurs services. En particulier, ils devraient inclure des informations sur les politiques, procédures, mesures et outils utilisés aux fins de la modération de contenu, y compris la prise de décision algorithmique et l’examen humain, ainsi que les règles de procédure de leur système interne de traitement des plaintes. Ils doivent également fournir des informations facilement accessibles sur le droit de mettre fin à l’utilisation du service.
Mais si l’on commence à creuser la loi, on découvre très vite qu’elle est un poison pour la liberté d’expression et qu’elle n’est pas dans l’esprit de l’article 11 de la Charte des droits fondamentaux de l’Union européenne, qui garantit aux citoyens « la liberté d’opinion et la liberté de recevoir ou de communiquer des informations ou des idées sans qu’il puisse y avoir ingérence d’autorités publiques et sans considération de frontières » Je détaille ci-dessous certains aspects de la loi qui, dans leur ensemble, constituent une menace sans précédent pour la liberté d’expression en Europe :
1. La loi sur les services numériques (DSA) crée des entités appelées « signaleurs de confiance » chargées de signaler les « contenus illégaux » qu’elles identifient sur les grandes plateformes en ligne. Les plateformes en ligne sont tenues par la loi de répondre rapidement aux signalements de contenus illégaux fournis par ces « signaleurs de confiance » nommés par les « coordinateurs de services numériques » désignés par les États membres La loi impose aux grandes plateformes en ligne de « prendre les mesures nécessaires pour garantir que les notifications soumises par les signaleurs de confiance, agissant dans leur domaine d’expertise désigné, par le biais des mécanismes de notification et d’action requis par le présent règlement, soient traitées en priorité« .
2. À proprement parler, si les plateformes numériques sont tenues de répondre aux signalements de contenus illicites soumis par des « signaleurs de confiance », il ressort du libellé de la loi que les plateformes disposent d’un pouvoir discrétionnaire pour décider de la manière exacte de donner suite à ces signalements. Elles peuvent, par exemple, ne pas être d’accord avec l’avis juridique d’un « signaleur de confiance » et décider de ne pas retirer le contenu signalé. Toutefois, elles seront soumises à des contrôles périodiques de la conformité de leurs actions avec la loi par des auditeurs travaillant pour le compte de la Commission européenne, et ces contrôles ne verront guère d’un bon œil un modèle d’inaction face à un contenu signalé.
3. La loi sur les services numériques impose également aux « très grandes plateformes en ligne » (telles que Google, YouTube, Facebook et Twitter) de procéder à des évaluations périodiques de « l’atténuation des risques », dans lesquelles elles abordent les « risques systémiques » associés à leurs plateformes, y compris, mais sans s’y limiter, la pédopornographie, la « violence sexiste » (quoi que cela signifie), la « désinformation » en matière de santé publique et les « effets négatifs réels ou prévisibles sur les processus démocratiques, le discours civique et les processus électoraux, ainsi que sur la sécurité publique » En vertu de la loi, les plateformes sont tenues de faire preuve de « diligence raisonnable » et de prendre les mesures appropriées pour gérer ces risques. Contrairement à un code de pratique volontaire, il n’est pas possible de s’y soustraire, et le non-respect de ces obligations de « diligence raisonnable » sera passible de lourdes sanctions.
4. Les sanctions liées au non-respect de la loi sont remarquables. La Commission, si elle estime qu’une grande plateforme en ligne telle que X/Twitter n’a pas respecté l’ASD, peut lui infliger une amende pouvant aller jusqu ‘à 6 % de son chiffre d’affaires annuel mondial. Étant donné que la notion de non-conformité est difficile à quantifier et assez vague (que faut-il faire exactement pour satisfaire aux « obligations de diligence raisonnable » en matière de gestion du risque systémique ?), il semble probable que les entreprises qui souhaitent éviter des maux de tête juridiques et financiers préfèrent pécher par excès de prudence et faire étalage de leur « conformité » pour éviter de se voir infliger une amende.
5. Les audits périodiques envisagés par cette loi serviront d’outil à la Commission pour faire pression sur les grandes plateformes en ligne afin qu’elles prennent des mesures pour « gérer » les « risques » de désinformation et les menaces pour le « discours civique et les processus électoraux », des risques qui sont notoirement vagues et qu’il est probablement impossible de définir de manière politiquement impartiale. La menace qui plane à l’arrière-plan de ces audits et des « recommandations » qui y sont associées est que la Commission pourrait imposer des amendes de plusieurs milliards de dollars aux plateformes en ligne en cas de non-conformité. En raison de l’idée plutôt vague du non-respect des « obligations de diligence raisonnable » et de la nature discrétionnaire des sanctions financières menacées dans l’ASD, cette loi créera une atmosphère d’incertitude juridique à la fois pour les plateformes en ligne et pour leurs utilisateurs. Elle incite fortement les plateformes en ligne à contrôler le discours d’une manière qui soit acceptable pour la Commission européenne, autour de catégories vagues telles que la « désinformation » et le « discours de haine », ce qui aura évidemment des répercussions pour les utilisateurs finaux.
6. Selon la Commission européenne, « les crimes et les discours motivés par la haine sont illégaux au regard de la législation de l’UE. La décision-cadre de 2008 concernant la lutte contre certaines formes d’expression du racisme et de la xénophobie requiert l’incrimination de l’incitation publique à la violence ou à la haine fondée sur la race, la couleur, la religion, l’ascendance ou l’origine nationale ou ethnique » Il est important de souligner que la Commission européenne est favorable à l’élargissement des catégories de discours de haine illégaux au niveau européen afin d’inclure non seulement « la race, la couleur, la religion, l’ascendance ou l’origine nationale ou ethnique », mais aussi de nouvelles catégories (vraisemblablement, y compris des éléments tels que l’identité de genre). Le discours de haine illégal est donc une « cible mouvante », susceptible de devenir de plus en plus large et de plus en plus chargée politiquement au fil du temps. Selon le site web de la Commission européenne,
Le 9 décembre 2021, la Commission européenne a adopté une communication qui incite le Conseil à prendre une décision visant à étendre la liste actuelle des « crimes de l’UE » figurant à l’article 83, paragraphe 1, du TFUE aux crimes de haine et aux discours de haine. Si cette décision du Conseil est adoptée, la Commission européenne pourra, dans un deuxième temps, proposer une législation secondaire permettant à l’UE de criminaliser d’autres formes de discours et de crimes de haine, en plus des motifs racistes ou xénophobes.
7. L’aspect le plus inquiétant de la DSA est l’énorme pouvoir et la discrétion qu’elle confère à la Commission européenne – notamment à une commission non élue – pour superviser le respect de la DSA et décider quand les plateformes en ligne ne respectent pas leurs « obligations de diligence raisonnable » pour gérer des risques dont la signification est notoirement vague et manipulable, tels que le discours de haine, la désinformation et le discours anticivique. La Commission européenne se donne également le pouvoir de déclarer une situation d’urgence à l’échelle européenne, ce qui lui permettrait d’exiger des interventions supplémentaires de la part des plateformes numériques pour contrer une menace publique. Il n’y aura aucune certitude juridique quant au moment où la Commission européenne pourra déclarer une « urgence » Il n’y a pas non plus de certitude juridique quant à la manière dont la Commission européenne et ses auditeurs interpréteront les « risques systémiques » tels que la désinformation et le discours haineux, ou évalueront les efforts des fournisseurs de services pour atténuer ces risques, puisqu’il s’agit de pouvoirs discrétionnaires.
8 On ne voit pas non plus comment la Commission pourrait entreprendre un audit des « risques systémiques » de désinformation et des risques pour le discours civique et les processus électoraux sans adopter un point de vue particulier sur ce qui est vrai et faux, sur les informations salutaires et nuisibles, anticipant ainsi le processus démocratique par lequel les citoyens évaluent ces questions pour eux-mêmes.
9. On ne sait pas non plus quels freins et contrepoids seront mis en place pour empêcher l’ASD de devenir une arme au service des causes préférées de la Commission européenne, qu’il s’agisse de la guerre en Ukraine, de l’utilisation des vaccins, de la politique climatique ou de la « guerre contre le terrorisme » Le pouvoir étendu de déclarer une urgence publique et d’exiger des plateformes qu’elles entreprennent des « évaluations » de leurs politiques en réponse à cette urgence, combiné au pouvoir discrétionnaire étendu d’imposer des amendes aux plateformes en ligne pour « non-respect » des « obligations de diligence raisonnable » intrinsèquement vagues, donne à la Commission une grande marge de manœuvre pour dominer les plateformes en ligne et faire pression sur elles pour qu’elles fassent avancer son récit politique favori.
10. Un aspect particulièrement sournois de cette loi est que la Commission rend effectivement la désinformation illégale *par une porte dérobée*, pour ainsi dire. Au lieu de définir clairement ce qu’elle entend par « désinformation » et de la rendre illégale – ce qui provoquerait probablement un tollé – elle impose aux grandes plateformes en ligne comme Twitter et Facebook de prendre des mesures discrétionnaires contre la désinformation et d’atténuer les « risques systémiques » sur leurs plateformes (qui incluent le risque de « désinformation en matière de santé publique »). On peut supposer que les audits périodiques de la conformité de ces entreprises avec la loi ne seront pas très favorables aux politiques qui n’appliquent guère les règles en matière de désinformation.
L’effet net de la loi serait donc d’exercer une pression presque irrésistible sur les plateformes de médias sociaux pour qu’elles jouent le jeu de la « contre-désinformation » d’une manière qui conviendrait aux auditeurs de la Commission et éviterait ainsi de se voir infliger de lourdes amendes. Il y a beaucoup d’incertitudes quant au degré de rigueur ou de laxisme de ces audits, et quant aux types de manquements qui pourraient déclencher l’application de sanctions financières. Il est assez étrange qu’une réglementation légale censée défendre la liberté d’expression mette le sort de cette dernière à la merci des jugements largement discrétionnaires et intrinsèquement imprévisibles de fonctionnaires non élus.
Le seul espoir est que ce texte législatif laid, compliqué et régressif finisse devant un juge qui comprenne que la liberté d’expression ne signifie rien si elle est prise en otage par les opinions de la Commission européenne sur la préparation aux pandémies, la guerre entre la Russie et l’Ukraine ou ce qui constitue un discours « offensant » ou « haineux ».
P.S. Considérez cette analyse comme une tentative préliminaire de quelqu’un qui n’est pas spécialisé dans le droit européen de s’attaquer aux implications troublantes de la loi sur les services numériques pour la liberté d’expression, sur la base d’une première lecture. Je me réjouis des corrections et des commentaires des experts juridiques et de ceux qui ont eu la patience de parcourir la loi pour eux-mêmes. Il s’agit de l’interprétation la plus détaillée et la plus rigoureuse que j’ai élaborée de la loi sur les services numériques à ce jour. Elle inclut des nuances importantes qui ne figuraient pas dans mes interprétations précédentes et corrige certaines interprétations erronées – en particulier, les plateformes ne sont pas légalement tenues de retirer tous les contenus signalés, et les personnes qui signalent des contenus illégaux sont appelées des « signaleurs de confiance », et non des « vérificateurs de faits »).
Republié à partir du site Substack de l’auteur
Suggérer une correction