U zou zich grote zorgen moeten maken over de Digital Services Act
Artikel 11 van het EU-Handvest van de Grondrechten, dat een deel van artikel 10 van het Europees Verdrag tot bescherming van de Rechten van de Mens omvat, beschermt het recht van Europese burgers om “een mening te koesteren en inlichtingen en denkbeelden te ontvangen en door te geven, zonder inmenging van enig openbaar gezag, en ongeacht grenzen.” Het bevestigt dat “de vrijheid en de pluriformiteit van de media worden geëerbiedigd.” Helaas staat het lot van de vrijheid van meningsuiting in Europa nu op het spel, aangezien de Europese Unie onlangs een wet heeft aangenomen die de Commissie de bevoegdheid geeft om het vermogen van burgers om digitale platforms te gebruiken voor een gedegen en oprecht democratisch debat aanzienlijk te beperken.
Onder de onlangs aangenomen Digital Services Act kan de Europese Commissie aanzienlijke druk uitoefenen op digitale platforms om “haatzaaien”, “desinformatie” en bedreigingen voor de “maatschappelijk discussie” in te dammen. Allemaal termen die vaag en glibberig zijn, termen die in het verleden zijn gebruikt om het verhaal van de heersende klasse te versterken. Door de Europese Commissie ruime bevoegdheden te geven om toezicht te houden op het beleid van Big Tech teneinde inhoud te modereren, houdt deze wetgeving de vrijheid van meningsuiting gegijzeld door de ideologische neigingen van ongekozen Europese ambtenaren en hun legers van “vertrouwensvlaggers”
Doel van de Digital Services Act
Het verklaarde doel van de Digital Services Act (DSA ) die net van kracht is geworden in Europa, is te zorgen voor een grotere “harmonisatie” van de voorwaarden die van invloed zijn op het aanbieden van “intermediaire” digitale diensten, in het bijzonder van online platforms die inhoud hosten die door hun klanten wordt gedeeld. De wet omvat een verbijsterende reeks onderwerpen, van consumentenbescherming en de regulering van advertentiealgoritmen tot kinderpornografie en inhoudsmoderatie. Onder andere doelen die in de tekst van de wet voorkomen, vinden we het bevorderen van “een veilige, voorspelbare en betrouwbare online omgeving”, de bescherming van de vrijheid van meningsuiting van burgers en de harmonisatie van EU-regelgeving die van invloed is op online digitale platforms. Deze zijn momenteel afhankelijk van de wetten van de afzonderlijke lidstaten.
De DSA is niet zo onschuldig als het lijkt
Op het eerste gezicht ziet de Digital Services Act (DSA) er misschien nogal onschuldig uit. Het stelt vrij formele eisen aan “zeer grote online platforms” zoals Google, Twitter/X, Facebook en TikTok om duidelijke beroepsprocedures te hebben en transparant te zijn over hun regulering van schadelijke en illegale inhoud. Zo leest artikel 45 van de wet als een vrij lichte eis dat aanbieders van online digitale diensten (“intermediaire diensten”) hun klanten op de hoogte houden van de voorwaarden en het bedrijfsbeleid:
Aanbieders van de intermediaire diensten moeten in hun algemene voorwaarden duidelijk aangeven op welke gronden zij de levering van hun diensten kunnen beperken en deze informatie actueel houden. Ze moeten in het bijzonder informatie opnemen over alle beleidslijnen, procedures, maatregelen en instrumenten die worden gebruikt voor beperking van inhoud, met inbegrip van algoritmische besluitvorming en menselijke beoordeling, evenals de procedureregels van hun interne klachtenafhandelingssysteem. Ze moeten ook gemakkelijk toegankelijke informatie verstrekken over het recht om het gebruik van de dienst te beëindigen.
Maar als je begint te graven in de wet, ontdek je al snel dat deze giftig is voor de vrijheid van meningsuiting en niet in de geest is van artikel 11 van het EU-Handvest van de grondrechten. Deze rechte garanderen burgers de “vrijheid om een mening te koesteren en om inlichtingen of denkbeelden te ontvangen of door te geven, zonder inmenging van enig openbaar gezag en ongeacht grenzen”. Hieronder beschrijf ik een aantal aspecten van de wet die samen een ongekende bedreiging vormen voor de vrijheid van meningsuiting in Europa:
1. De DSA (Digital Services Act) creëert entiteiten die “vertrouwde markeerders” worden genoemd om “illegale inhoud” te melden die zij signaleren op grote online platforms. De wet verplicht online platforms om onmiddellijk te reageren op meldingen van illegale inhoud die worden gedaan door deze “betrouwbare signaleerders”, die worden benoemd door de lidstaten die “coördinatoren digitale diensten” aanwijzen. De wet verplicht grote online platforms om “de nodige maatregelen te nemen om ervoor te zorgen dat meldingen die worden gedaan door “trusted flaggers”, die handelen binnen hun aangewezen expertisegebied, via de meldings- en actiemechanismen zoals vereist door deze verordening , met voorrang worden behandeld“
2. Strikt genomen zijn digitale platforms weliswaar verplicht om te reageren op meldingen van illegale inhoud die worden ingediend door “trusted flaggers” (betrouwbare signaleerders)”, maar uit de formulering van de wet blijkt dat de platforms zelf mogen beslissen hoe ze precies reageren op dergelijke meldingen. Ze kunnen het bijvoorbeeld niet eens zijn met de juridische mening van een “trusted flagger” en besluiten om de gemelde inhoud niet te verwijderen. Ze zullen echter te maken krijgen met periodieke controles op de naleving van de wet door controleurs die namens de Europese Commissie werken, en deze controles zullen een patroon van niets doen ten aanzien van gemarkeerde inhoud niet gunstig beoordelen.
3. De Digital Services Act vereist ook dat “zeer grote online platforms” (platforms zoals Google, YouTube, Facebook en Twitter) periodieke “risicobeperkende” beoordelingen uitvoeren, waarin ze “systemische risico’s” in verband met hun platforms aanpakken, met inbegrip van, maar niet beperkt tot kinderpornografie, “gendergeweld” (wat dat ook moge betekenen), “desinformatie” over de volksgezondheid en de “werkelijke of voorzienbare negatieve effecten op democratische processen, het maatschappelijk debat en op verkiezingsprocessen, evenals de openbare veiligheid” Platforms hebben volgens de wet een “due diligence” (zorgvuldigheidsplicht) om passende maatregelen te nemen om deze risico’s te beperken. In tegenstelling tot een vrijwillige gedragscode is opting out geen optie en op het niet voldoen aan deze “due diligence” verplichtingen staan zware sancties.
4. De sancties voor niet-naleving van de wet zijn opmerkelijk. Als de Commissie van mening is dat een groot online platform zoals X/Twitter de DSA niet heeft nageleefd, kan zij dit platform een boete opleggen die kan oplopen tot 6 procent van de wereldwijde jaaromzet. Omdat het idee van niet-naleving moeilijk te kwantificeren en behoorlijk vaag is (wat is er precies nodig om te voldoen aan de “due diligence-verplichtingen” van systeemrisicobeheer?), lijkt het waarschijnlijk dat bedrijven die juridische en financiële hoofdpijn willen voorkomen, liever aan de voorzichtig kant blijven en een show van “naleving” opvoeren om te voorkomen dat ze een boete krijgen.
5. De periodieke audits die deze wet beoogt, zullen dienen als een instrument voor de Commissie om grote online platforms onder druk te zetten om actie te ondernemen om de “risico’s” van desinformatie en de bedreigingen voor het “maatschappelijk debat en voor de verkiezingsprocessen” te “beheersen” – risico’s die notoir vaag zijn en waarschijnlijk onmogelijk op een politiek onpartijdige manier kunnen worden gedefinieerd. De dreiging die op de loer ligt bij deze audits en de bijbehorende “aanbevelingen” is dat de Commissie miljarden-boetes kan opleggen aan online platforms als ze zich niet aan de regels houden. Vanwege het nogal vage idee van niet-naleving van “zorgvuldigheidseisen” en de discretionaire aard van de financiële sancties waarmee in de DSA wordt gedreigd, zal deze wet een sfeer van rechtsonzekerheid creëren voor zowel online platforms als hun gebruikers. Het stimuleert online platformen sterk om toezicht te houden op uitspraken zoals die door de EU Commissie wordt geaccepteerd, rond vage categorieën zoals “desinformatie” en “haatzaaien”, en dit zal uiteraard gevolgen hebben voor eindgebruikers.
6. Volgens de Europese Commissie zijn “haatmisdrijven- en uitingen illegaal onder de EU-wetgeving. Het Kaderbesluit van 2008 betreffende de bestrijding van bepaalde vormen van racisme- en vreemdelingenhaat-uitingen vereist de strafbaarstelling van het publiekelijk aanzetten tot geweld of haat op grond van ras, huidskleur, godsdienst, afstamming, dan wel nationale of etnische afkomst.” Het is belangrijk om op te merken dat de EU Commissie er voorstander van is om de categorieën van illegale haatzaaiende uitingen op Europees niveau uit te breiden, zodat ze niet alleen “ras, huidskleur, godsdienst, afkomst of nationale of etnische herkomst” omvatten, maar ook nieuwe categorieën (vermoedelijk inclusief zaken als gender-identiteit). Illegale haatzaaiende taal is dus een “bewegend doel” en zal waarschijnlijk steeds breder en politieker geladen worden naarmate de tijd vordert. Volgens de website van de Europese Commissie zelf,
Op 9 december 2021 heeft de Europese Commissie een mededeling aangenomen die de aanzet geeft tot een besluit van de Raad om de huidige lijst van “EU-misdrijven” in artikel 83, lid 1, VWEU uit te breiden met haatmisdrijven en haatuitingen. Als dit besluit van de Raad wordt aangenomen, zou de Europese Commissie in een tweede fase secundaire wetgeving kunnen voorstellen die de EU in staat stelt om naast racistische of xenofobe motieven ook andere vormen van haat zaaien en haatmisdrijven strafbaar te stellen.
7. Het meest verontrustende aspect van de DSA is de enorme macht en discretie die het in de handen van de Europese Commissie legt – met name een niet-gekozen commissie – om toezicht te houden op de naleving van de DSA en te beslissen wanneer online platforms niet voldoen aan hun “due diligence verplichtingen” om risico’s te beheren waarvan de betekenis vaag en manipuleerbaar is zoals “haatzaaien”, “desinformatie” en “anti-civiel discours”. De Europese Commissie geeft zichzelf ook de bevoegdheid om een Europese noodsituatie af te kondigen waardoor ze extra interventies van digitale platforms kan eisen om een publieke dreiging tegen te gaan. Er is geen rechtszekerheid over wanneer de Europese Commissie een “noodsituatie” kan uitroepen Evenmin is er rechtszekerheid over hoe de Europese Commissie en haar auditors “systeemrisico’s” zoals desinformatie en haat-zaaien zullen interpreteren, of de inspanningen van dienstverleners om dergelijke risico’s te beperken zullen beoordelen, aangezien dit willekeurige bevoegdheden zijn.
8. Het is ook niet duidelijk hoe de Commissie een controle zou kunnen uitvoeren van “systeemrisico’s” van desinformatie en risico’s voor het maatschappelijk debat en de verkiezingsprocessen zonder een bepaalde opvatting te hebben over wat waar en onwaar is, en heilzame en schadelijke informatie, waarmee ze vooruitloopt op het democratische proces waarin burgers deze kwesties zelf beoordelen.
9. Het is ook niet duidelijk welke checks and balances er zullen zijn om te voorkomen dat het Agentschap voor toetsing van het beleid een wapen wordt voor de favoriete doelen van de Europese Commissie, of het nu gaat om de oorlog in Oekraïne, het gebruik van vaccins, klimaatbeleid of een “oorlog tegen terreur” De ruime bevoegdheid om een publieke noodsituatie af te kondigen en platforms te verplichten om in reactie daarop “beoordelingen” van hun beleid uit te voeren in combinatie met de ruimewillekeurige bevoegdheid om online platforms te beboeten voor “niet-naleving” van inherent vage “due diligence verplichtingen”, geven de Commissie veel speelruimte om te heersen over online platforms en ze onder druk te zetten om haar favoriete politieke verhaal te promoten.
10. Een bijzonder stiekem aspect van deze wet is dat de Commissie in feite desinformatie illegaal maakt *via een achterdeur,* om het zo maar te zeggen. In plaats van duidelijk te definiëren wat ze bedoelen met “desinformatie” en het illegaal te maken – wat waarschijnlijk tot oproer zou leiden – leggen ze grote online platforms zoals Twitter en Facebook een “due dilegence” verplichting op om discretionaire maatregelen te nemen tegen desinformatie en om “systeemrisico’s” op hun platforms te beperken (waaronder het risico van “desinformatie over de volksgezondheid”). Het is aannemelijk dat de periodieke controles van de naleving van de wet door deze bedrijven een onvriendelijk beeld zouden geven van beleid dat de regels voor desinformatie nauwelijks handhaaft.
Het netto-effect van de wet zou dus zijn dat er een bijna onweerstaanbare druk op sociale mediaplatforms wordt uitgeoefend om het “tegen-disinformatie”-spel zo te spelen dat ze door de auditors van de Commissie worden geaccepteerd en dus geen hoge boetes krijgen. Er is veel onzekerheid over hoe streng of laks dergelijke controles zouden zijn en welke soorten van niet-naleving zouden kunnen leiden tot het opleggen van financiële sancties. Het is nogal vreemd dat een wettelijke regeling die beweert de vrijheid van meningsuiting te verdedigen, het lot van de vrijheid van meningsuiting zou overlaten aan de willekeur en het inherent onvoorspelbare oordeel van ongekozen ambtenaren.
De enige hoop is dat dit smerige, ingewikkelde en deprimerende stuk wetgeving terecht komt bij een rechter die begrijpt dat vrijheid van meningsuiting niets betekent als het gegijzeld wordt door de opvattingen van de Europese Commissie over het voorbereid zijn op een pandemie, de oorlog tussen Rusland en Oekraïne, of wat telt als “beledigende” of “haatdragende” meningsuiting.
P.S. Beschouw deze analyse als een eerste poging van iemand die niet gespecialiseerd is in Europees recht om de verontrustende implicaties van de Digital Services Act voor de vrijheid van meningsuiting te doorgronden, zijnde gebaseerd op een eerste lezing. Ik verwelkom de correcties en commentaren van juridische experts en degenen die het geduld hebben gehad om de wet zelf door te nemen. Dit is de meest gedetailleerde en rigoureuze interpretatie van de DSA die ik tot nu toe heb ontwikkeld. Het bevat belangrijke nuances die niet in mijn eerdere interpretaties waren opgenomen en corrigeert bepaalde misinterpretaties – platforms zijn met name niet wettelijk verplicht om alle gemarkeerde inhoud te verwijderen en de mensen die illegale inhoud markeren worden “trusted flaggers” genoemd, niet “feitencheckers”).
Overgenomen van de Substack van de auteur
Suggest a correction