Regulering van online inhoud

Regulering van online inhoud is het geheel van maatregelen, vanwege de overheid of door beheerders van internetplatforms, met de bedoeling de online verspreiding van illegale inhoud te voorkomen en in te perken, en zo de grondrechten van gebruikers beter te beschermen.

"Unteilbar" protest tegen online haatzaaien in Berlijn (2018).

Deze regulering van informatie, vooral dan op sociale media, verloopt door middel van inhoudelijke moderatie van berichten en informatie. Deze maatregelen worden door critici beschouwd als een aantasting van de vrijheid van meningsuiting en dus een vorm van internetcensuur, maar door voorstanders als een maatschappelijke noodzaak.

De regulering van online inhoud in de sector van online gaming is echter nog minder ontwikkeld.[1]

Historiek bewerken

Afgezien van de internetcensuur die in verschillende landen de toegang tot het internet beperkt, is de – veelal indirecte – moderatie van content een controverse die aanvankelijk vooral in de Verenigde Staten op gang kwam in 2016, met de vermeende Russische tussenkomst in de Amerikaanse presidentsverkiezingen 2016 (Donald Trump vs. Hillary Clinton). Op 6 januari 2017 wees aftredend minister van Binnenlandse Veiligheid Jeh Johnson "verkiezingsinfrastructuur" aan als kritieke infrastructuur. waardoor de missie van het Cybersecurity and Infrastructure Security Agency (CISA) voor het censureren van vermeende "desinformatie" mogelijk werd.[2]

In 2022 kwamen de zogenoemde Twitter files aan het licht, met aanwijzingen van inhoudelijke en mogelijk partijdige moderatie van berichten op Twitter.

In maart 2023 legde Michael Shellenberger in de Amerikaanse parlementscommissie voor justitie een uitvoerig gedocumenteerd getuigenis af onder de titel “Overheidsbemoeienis inzake binnenlandse censuur en desinformatiecampagnes, van 2016 tot 2022”.[3] Hij noemde deze bemoeienis het "Censuur-Industrieel Complex”, verwijzend naar het militair-industrieel complex, maar dan in een context van hybride oorlogsvoering. Het “Complex” zou dan in de VS bestaan uit een netwerk van overheidsinstellingen, vaak ressorterend onder de departementen justitie en defensie, zoals het DARPA, de National Science Foundation en de CISA, in samenwerking met universiteiten, denktanks zoals National Endowment for Democracy, factcheckers en privé-veiligheidsbedrijven. Shellenberger noemde enkele voorbeelden van censuurprogramma’s zoals het Social Media in Strategic Communication (SMISC, door DARPA in 2011 ontwikkeld om terroristische activiteit op het internet op te sporen), en het Course Correct-programma van de National Science Foundation.[3] Verslaggevers Zonder Grenzen en ZeroHedge noemden in dit verband tientallen organisaties wereldwijd.[4][5] De gezamenlijke invloed van deze instanties zou dan volgens Shellenberger in de praktijk leiden tot een ideologisch eenvormig narratief over wat in de VS dient beschouwd en verdedigd te worden als “dé democratie”. De controverse leidde vooral in de Verenigde Staten tot analyses en heftige debatten.[6]

Voor- en tegenstanders bewerken

De meningen in de Amerikaanse publieke opinie hierover zijn verdeeld, met een kleine meerderheid gewonnen voor regulering door de techbedrijven zelf.[7]

Voorstanders bewerken

Voorstanders stellen dat beperkingen nodig zijn om de verspreiding van desinformatie en nepnieuws tegen te gaan, en om kwetsbare groepen en minderheden te beschermen tegen cyberpesten, haatzaaien en discriminatie. Sociale mediaplatforms zouden ook een verantwoordelijkheid hebben om een veilige en respectvolle online omgeving te creëren voor hun gebruikers.

Bekende voorstanders zijn onder meer:

Tegenstanders bewerken

Tegenstanders wijzen op de bescherming van de vrijheid van meningsuiting in de grondwet van vele landen (in de VS het bekende Eerste Amendement). Beperkingen op online inhoud zouden dit grondrecht schenden. Ook vrezen sommigen dat de inhoudelijke controle kan leiden tot censuur, vooral omdat het vaak subjectief is om te bepalen wat nepnieuws of haatzaaien is, met als gevolg willekeurige beslissingen van platformbeheerders, of zelfs “controlenetwerken”.[3][4]

Bekende tegenstanders zijn onder meer:

Technieken bewerken

Om berichten en informatie te filteren, maken internetplatforms gebruik van diverse technieken:

  • handmatige moderatie, waarbij menselijke moderators inhoud beoordelen en berichten verwijderen die in strijd zijn met de richtlijnen. Bij herhaling worden accounts tijdelijk geblokkeerd of gesloten;
  • automatische moderatie door middel van inhoudfilters, waarbij algoritmes inhoud scannen op basis van vooraf ingestelde regels, die bijvoorbeeld beledigende taal, spam of auteursrechtelijk beschermd materiaal aangeven. Deze filters kunnen echter fouten maken en onschadelijke inhoud onterecht verwijderen;
  • contentclassificatie, waarbij algoritmes inhoud analyseren en labelen om gebruikers te waarschuwen;
  • temporele beperking, waarbij geviseerde berichten kunnen worden vertraagd en dus de snelheid van verspreiding (bv. viral video afneemt;
  • bij schaduwverbanning kunnen gebruikers wel onbeperkt berichten plaatsen, maar deze zijn alleen zichtbaar voor henzelf;
  • kunstmatige intelligentie kan patronen herkennen in grote hoeveelheden inhoud, en op basis daarvan filteren of labelen.

Uitbesteding bewerken

Inhoudelijke moderatie van informatie is bij de grote sociale media een systematisch en deels geautomatiseerd proces om die inhoud te laten voldoen aan wettelijke en regelgevende vereisten, richtlijnen van de site/gemeenschap en gebruikersovereenkomsten. Bovendien wordt vaak getracht de inhoud te laten passen binnen de normen van smaak en aanvaardbaarheid voor die site en de culturele context.[16]

Ooit werd dit werk gedaan door vrijwilligers binnen de online gemeenschap, maar bij commerciële websites wordt die taak grotendeels uitbesteed aan gespecialiseerde bedrijven, vaak in lagelonenlanden met een goed opgeleide en Engelssprekende beroepsbevolking zoals India en de Filippijnen, en dit reeds begin jaren '90.[17]

De uitbesteding kan verlopen via consultingbedrijven zoals Genpact en Cognizant, en biedt werk aan tienduizenden medewerkers. Het langdurig bekijken van soms verontrustende inhoud eist echter zijn psychologische tol bij de moderators, die meermaals lijden aan secundaire trauma's, lijkend op posttraumatische stressstoornis. En terwijl moderators in de VS op bijstand en compensaties kunnen rekenen, is dat niet het geval in de lageloonlanden.[17]

Overheidsregulering bewerken

Rechtsbeginselen bewerken

De Mensenrechtenraad van de Verenigde Naties doet in haar resoluties geen expliciete oproep tot (internationale) regulering van online inhoud. De Raad benadrukt enerzijds dat de rechten die burgers offline hebben ook online beschermd moeten worden, in het bijzonder de vrijheid van meningsuiting, en steunt daarbij op artikel 19 van de Universele Verklaring van de Rechten van de Mens en op het Internationaal verdrag inzake burgerrechten en politieke rechten. Anderzijds roept de VN ook op om de negatieve aspecten tegen te gaan, waaronder haatzaaien en nepnieuws, het onwettig gebruik van persoonsgegevens en online aanvallen op vrouwen.[18]

Het Europees Hof voor de Rechten van de Mens hanteert, op basis van het Europees Verdrag voor de Rechten van de Mens, een ruime interpretatie van de vrijheid van meningsuiting, en oordeelt dat in een democratie ruimte moet zijn voor uitlatingen die kwetsen, choqueren of verontrusten, met uitzondering van bepaalde racistische, antisemitische, islamofobe uitlatingen, het rechtvaardigen van oorlogsmisdaden en terroristische propaganda.[18]

Wetgeving bewerken

In tientallen landen zijn sedert 2015 nieuwe wetten voor sociale media aangenomen, of worden ze voorbereid.[15] Vaak worden bij vergelijkingen de wetgeving in de VS en die van China als tegenpolen gezien.[19]

De Europese Unie wil met de Verordening digitale diensten (DSA) online-platforms dwingen maatregelen te nemen die online verspreiding van illegale inhoud voorkomen en inperken, en de grondrechten van gebruikers beschermen.

In de Amerikaanse regelgeving heerste als uitgangspunt een brede immuniteitsbenadering, volgens “Sectie 230” van de (en) Communications Decency Act uit 1996, de eerste stap van het Amerikaans Congres om pornografisch materiaal op het internet te beteugelen. Sectie 230 van de wet (en de daaropvolgende jurisprudentie zoals Gonzalez v. Google en Twitter v. Taamneh in 2023)[20] stelde providers van online diensten en gebruikers vrij van aansprakelijkheid voor onrechtmatige daden die anderen plegen op hun websites of online forums, zelfs als de provider geen actie ondernam nadat hij op de hoogte was gesteld van de schadelijke of aanstootgevende inhoud. Door middel van de zogenaamde “barmhartige Samaritaan-bepaling” beschermt deze sectie providers en platformbeheerders ook tegen aansprakelijkheid voor het modereren van bijdragen of het delegeren ervan. In de praktijk passen vele websites waar commentaar kan worden gepost, een vorm van inhoudelijke moderatie toe.

Daarnaast is in de VS nog een reeks federale wetten van toepassing, zoals de Digital Millennium Copyright Act, de Children's Online Privacy Protection Act en de Americans with Disabilities Act.

Transparantie bewerken

De Raad van Europa publiceerde in 2021 een leidraad over moderatie van inhoud.[21]

De Europese Verordening digitale diensten (DSA) eist van de “zeer grote online platforms” en de “zeer grote online zoekmachines” gedetailleerde transparantieverslagen over de moderatie van de inhoud op hun platformen, zoals het aantal meldingen, het aantal inhoudstukken dat op eigen initiatief van het platform is verwijderd, de ontvangen instructies van relevante nationale gerechtelijke of administratieve autoriteiten, en de nauwkeurigheid en foutmarge van hun geautomatiseerde systemen voor inhoudsmoderatie. De rapporten, die gepubliceerd worden, moeten ook informatie bevatten over de content moderatieteams, inclusief hun kwalificaties en taalkundige expertise.[22]

In de VS werd het wetsontwerp Platform Accountability and Consumer Transparency Act (PACT) in het Congres ingeleid.[23]

Rechtspraak bewerken

Een baanbrekende zaak in de VS over het recht van de federale regering om inzake regulering van online inhoud afspraken te maken met de sociale media, is Murthy v. Missouri. Het proces werd in mei 2022 onder impuls van Missouri’s procureur-generaal Eric Schmitt[24] ingeleid voor een districtsrechtbank in Louisiana. De klacht luidde dat de federale overheid sociale mediabedrijven onder druk zette om conservatieve standpunten en kritiek op de regering Biden te censureren, wat in strijd is met het recht op vrijheid van meningsuiting. De regering voerde daartegen aan dat ze alleen verzoeken had gedaan aan exploitanten van sociale media, en geen eisen had gesteld om verkeerde informatie te verwijderen. Toch verbood de rechtbank de federale administratie in juli 2023 nog contact op te nemen met sociale mediadiensten met het verzoek om materiaal te blokkeren, behalve als het ging om illegale activiteiten. Na een opschorting in beroep werd de zaak in september 2023 voorgelegd aan het Hooggerechtshof.[25] Tijdens de eerste pleidooien op 18 maart 2024 leidde de suggestie van rechter Ketanji Brown Jackson dat de overheid “de plicht kan hebben om burgers te beschermen tegen schadelijke inhoud” tot heftige tegenreacties van radicale voorstanders van vrije meningsuiting.[26]

Zie ook bewerken