Debat over Europese aanpak van desinformatie en haatspraak in het najaar

Europa voert de strijd tegen onlinehaatspraak en desinformatie op. Het najaar wordt cruciaal voor de Europese Digital Services Act (DSA), het vlaggenschip dat ten strijde trekt tegen hate speech en desinformatie online. Het Europees Parlement maakt zich op voor een stevig debat, met ruim duizend amendementen op de voorgestelde tekst. De wetgeving beroert iedereen, burgers en professionals, waaronder ook journalisten en nieuwsmedia

De laatste decennia boomde de onlinewereld. Telde Facebook in 2006 – het jaar dat het echt openbaar werd – nog 12 miljoen actieve gebruikers, intussen zijn er dat 2,5 miljard.[1] Op YouTube worden vandaag vele honderdduizenden nieuwe video’s per dag geüpload. Twitter klokte af in 2020 op 192 miljoen dagelijks actieve gebruikers.[2] Het aantal onlineshoppers explodeerde. Bijna iedereen is nu online en maakt gebruik van onlinediensten – sociaal, recreatief, cultureel, politiek en commercieel. Communiceren, shoppen, daten, campagne voeren, vergaderen of onze nieuwsconsumptie: digitaal is het ordewoord. Europese wetgeving – de Richtlijn Elektronische Handel[3] met name – moest dat alles in min of meer goede banen leiden, maar is intussen 21 jaar oud. Een eeuwigheid, zeker als het gaat om de onlinewereld.

Europa versterkt zijn grip op de digitale eengemaakte markt

Tijd voor een update dus. Concreet zitten er twee voorstellen van wetgeving in de pijplijn, de Digital Services Act[4] en de Digital Markets Act[5]. Het eerste voorstel regelt onlinediensten die betrekking hebben op user-generated content (denk aan Facebook, Twitter, YouTube of TikTok), het tweede de mededingingsrechtelijke aspecten van onlinedienstverlening. De twee voorstellen vullen andere recente maatregelen aan, zoals de DSM-richtlijn[6] (eerlijker verdeling van digitale auteursrechten, ook voor journalisten) en de herziene AVMS-Richtlijn (gelijk speelveld voor omroepdiensten en audiovisuele mediadiensten). Laat ons hierna even focussen op de komende DSA-wet, gelet op het grote belang dat die heeft voor onder meer journalistiek.

Onlinehaatspraak en desinformatie

Online manipulatie met de brexit als gevolg, broodjeaapverhalen over COVID-19, intimidatie en zelfcensuur, cybercriminaliteit, gebrek aan transparantie op internet, onlineplatformen die zich opstellen als gatekeepers … De uitdagingen zijn legio. De DSA-wet – een lijvig document met ruim 100 overwegingen en 74 artikelen – speelt in op die werven en beoogt in de eerste plaats een transparante en veilige onlineomgeving.

Onlinedienstverleners: niet de louter technische spelers van weleer

De Richtlijn Elektronische Handel bepaalt dat dienstverleners niet aansprakelijk zijn voor de informatie die ze voor hun gebruikers doorgeven of opslaan.[7] De verklaring hiervoor is eenvoudig: in 2000 beschouwde de wetgever onlinedienstverleners als louter technische spelers. Een onlinedienst was maar een vehikel, het was de gebruiker die ervoor koos om content door te geven of op te slaan. Om de vrijstelling van aansprakelijkheid te genieten, was en is wel een passieve opstelling vereist. Het komt de onlinedienstverlener met andere woorden niet toe om illegale content op te sporen en offline te halen. Mettertijd is die zienswijze weliswaar onder druk komen te staan, en werd ze bijgestuurd door de Europese Commissie.[8]

Die troebele situatie werd vervolgens nog versterkt door een specifiek aansprakelijkheidsregime dat de EU invoerde voor het gebruik van auteursrechtelijk beschermde content door onlinediensten. Het gaat dan om artikel 17 van de DSM-richtlijn, dat de zogenaamde value gap moet dichtrijden. Die value gap slaat op het voordeel dat techgiganten als Facebook en YouTube hebben doordat ze advertentie-inkomsten binnenrijven met auteursrechtelijk beschermde werken zonder dat de rechthebbende zelf eraan verdient.

Nog andere ontwikkelingen vergrootten de rechtsonzekerheid over wie nu aansprakelijk is voor wat in de online sfeer. Zo beslisten alvast drie EU-lidstaten om hatespeech te beteugelen op nationaal vlak[9] Ook dat inspireerde de Europese wetgever tot een nieuwe globale aansprakelijkheidsregeling voor onlinedienstverleners.

Het aansprakelijkheidsregime onder de DSA-wet

Toch wordt er niet zo ingrijpend gesleuteld aan de voornoemde aansprakelijkheidsbepalingen van de Richtlijn Elektronische Handel.[10] Wel voorziet men enkele expliciete zorgvuldigheids- en transparantieverplichtingen[11]: een basisset voor alle onlinediensten of ‘tussenpersonen’[12], en aanvullende verplichtingen voor respectievelijk ‘zeer grote onlineplatforms’[13] (de meeste aanvullende verplichtingen), ‘onlineplatforms’[14], en ‘aanbieders van hostingdiensten’[15] (de minste aanvullende verplichtingen). Om het aanschouwelijk te maken: een ‘zeer groot platform’ is een sociaalmediaplatform als Facebook, een videokanaal als YouTube of een marktplaats als eBay. Het verschil met een (gewoon) ‘onlineplatform’ zit dan in het gemiddeld aantal maandelijks actieve gebruikers in de EU dat gelijk aan of groter is dan 45 miljoen.[16] Een speler die die drempel niet haalt, is dan dus gewoon ‘onlineplatform’.

Zorgvuldigheidsplichten voor (zeer grote) onlineplatforms (due diligence)

De maatschappelijke impact van (zeer grote) onlineplatforms is de werkelijke aanleiding voor de DSA-wet. Ontwrichting door desinformatie, het spanningsveld met fundamentele rechten als vrije meningsuiting en fair trialcyberbullying … het zijn die problemen die de nieuwe wet wil aanpakken. Spelers als Facebook en YouTube zijn geen louter technische spelers, het zijn poortwachters die bepalen wat je te zien krijgt, wie geblokkeerd wordt, wie de dienstverlening wordt ontzegd … Tegelijk zijn het actoren die wegen op het publieke debat, die cashen op gebruikersgegevens, die het democratisch proces in een bepaalde richting stuwen. Om de online publieke ruime opnieuw een stuk veiliger en voorspelbaarder te maken, krijgen zeer grote onlineplatforms onder de nieuwe wet nu allerlei verplichtingen opgelegd.

Om te beginnen moeten ze zorgen voor contactpunten voor communicatie met de bevoegde autoriteiten[17] en de aanduiding van wettelijke vertegenwoordigers in de EU[18] (indien niet gevestigd in de EU). Beperkingen ten aanzien van gebruikers moeten helder contractueel worden uiteengezet[19]: een gebruiker moet weten wanneer en waarom er wordt ingegrepen in de info die hij heeft geshared. Daarnaast moet er worden gerapporteerd over content moderation[20], jaarlijks door alle onlinediensten, en in het geval van onlineplatforms halfjaarlijks[21]. Zeer grote onlineplatforms moeten bovendien jaarlijks de risico’s met betrekking tot hun activiteiten gaan beoordelen[22] en daarnaar handelen[23]. Parallel hiermee moeten ze erop toezien dat de DSA-wet effectief wordt nageleefd[24]. Ook worden de controle en transparantie fel opgevoerd via een jaarlijkse audit.[25] Indien eventuele aanbevelingen niet worden nageleefd, dan moet dat ook worden gemotiveerd[26]. Transparantie geldt a fortiori wanneer het gaat over recommender systems of systemen die zeer grote onlineplatforms hanteren om te bepalen welke info gebruikers te zien krijgen.[27] Tot slot is niet alles top down maar wordt er evenzeer belang gehecht aan co-regulering en vrijwillige samenwerking via gedragscodes[28] en crisisprotocollen[29].

You May Also Like

Leave a Reply

Your email address will not be published.