Sinds 2016 is de censuur van extreemrechtse groepen en individuen op sociale mediaplatforms onderwerp van veel publieke discussie. Met de implementatie van wetten om hatelijke uitlatingen tegen te gaan, zoals de Duitse netwerkhandhavingswet ( NetzDG ) en de EU-gedragscode , zijn socialemediabedrijven nu veel meer verantwoordelijk voor het reguleren van de inhoud die door gebruikers online wordt geplaatst.
Censuur op dergelijke hatelijke inhoud kan verschillende vormen aannemen. Gehele pagina’s of accounts – of in minder extreme omstandigheden individuele berichten – kunnen worden verwijderd, een praktijk die bekend staat als de-platforming of no-platforming. Voorbeelden hiervan waren het verwijderen van Facebook-pagina’s van verschillende Britse organisaties en individuen , waaronder de British National Party, Britain First en de English Defense League (EDL). Dit gebeurde in april vorig jaar, twee maanden nadat de leider van de EDL, Tommy Robinson , van het platform werd verbannen. Meer recent, in september 2019, de pagina’s van de Italiaanse partijen Fuorza Nuova en CasaPoundwerden inactief gemaakt. Naast het volledig verwijderen van pagina’s of berichten, kan inhoud ook algoritmisch lager worden gerangschikt. Als gevolg hiervan zullen gebruikers het minder prominent zien verschijnen in hun Facebook- of Twitter-feeds. Voormalig UKIP-leider Nigel Farage voerde in 2018 aan dat deze praktijk leidde tot een veel lagere betrokkenheid van zijn volgers op Facebook.
Anekdotisch bewijs suggereert dat censuur het voor extreemrechtse individuen of groepen moeilijker kan maken om een mainstream publiek te bereiken. Misschien wel het beste voorbeeld hiervan is Milo Yiannopoulos. De voormalige alt-right influencer ging naar verluidt failliet nadat hij van Twitter was verwijderd. Yiannopoulos heeft het moeilijk gehad om zijn koopwaar te verkopen via alternatieve platforms zoals Telegram en Gab, die een veel kleinere en specifiekere gebruikersgroep hebben. Er is ook beweerd dat de verwijdering van samenzweringstheoreticus Alex Jones van YouTube en Yiannopoulos van Twitter leidt tot afname van het publiek. Tegelijkertijd bestaat de vrees dat extreemrechtse actoren door censuur gedwongen worden te migreren naar meer marginale, niet- gecontroleerde online omgevingen, waar meer extremistische inhoud kan blijven circuleren . Deze angst is legitiem, aangezien forums zoals Gab en 8kun in verband zijn gebracht met schietpartijen.
Het verwijderen van pagina’s kan ook de perceptie van extreemrechts van onrecht versterken . Zoals William Allchorn van CARR aantoont, is censuur een belangrijk aandachtspunt geworden in het discours van de extremisten over slachtofferschap. De verwijdering van Robinson en Yiannopoulos van online platforms, evenals de rechtszaak tegen Geert Wilders, leider van de Nederlandse Partij voor de Vrijheid (PVV), hebben dit discours aangewakkerd. Deze voorbeelden worden door extreemrechts gebruikt als een tactiek om het zwijgen op te leggen en hun vrijheid van meningsuiting te beperken. Wanneer censuur niet alleen inhoud lijkt te verwijderen die extremistisch van aard is, maar ook inhoud waarmee we het gewoon niet eens zijn, leidt dit terecht tot gevoelens van onrechtvaardigheid en vergroot het de tegenstand. Bijvoorbeeld in een recent gevalin Italië was de rechtbank het erover eens dat de censuur van CasaPound door Facebook onrechtvaardig was en dat de partij hierdoor werd uitgesloten van het Italiaanse politieke debat. Bijgevolg moest Facebook de pagina van CasaPound opnieuw activeren en de groep 800 euro betalen voor elke dag dat deze was gesloten.
Extreemrechtse actoren kunnen hun strategieën ook online aanpassen om te voorkomen dat ze worden geblokkeerd. Prashanth Bhat en ik laten in een komend boekhoofdstuk zien (in het bewerkte deel #TalkingPoints: Twitter, de publieke sfeer en de aard van online beraadslaging ) hoe praktijken van gecodeerde verbale of visuele taal door extreemrechtse gebruikers online worden toegepast om te blijven duidelijk van censuur. Deze zogenaamde hondenfluitjes worden gebruikt om meer verkapte vormen van haatzaaiende uitingen online te uiten. Een bekend voorbeeld was Operatie Googlein 2016, waarin gebruikers codewoorden adopteerden als wraak op Google die geautomatiseerde haatzaaiende detectie implementeerde met behulp van AI. Extreemrechtse gebruikers begonnen zwarte mensen “Googles” te noemen en joden “Skypes”. Bijgevolg zouden deze gecodeerde vormen van haatzaaiende uitlatingen de merknaam in een racistische smaad veranderen en bedrijven dwingen hun eigen merknaam te censureren.
Evenzo behandelt CARR Fellow Bharath Ganesh hoe termen als “blanke genocide” of “rapefugees” werden uitgevonden door Twitter-gebruikers, aangezien deze woorden niet onmiddellijk als extreem herkenbaar zijn volgens de gemeenschapsrichtlijnen van platforms. Deze strategie van hondenfluit maakt het ook mogelijk om inhoud aan te pakken die niet noodzakelijkerwijs hatelijk is, maar op andere manieren schadelijk. Onlangs, bijvoorbeeld, het publiek online zijn begonnen met het maken gebruik van hashtags zoals # maga2020 op Instagram te voorkomen dat de inhoud ervan wordt geblokkeerd als het over anti-vaccins . Extreemrechtse gebruikers hebben, als early adopters van internet , creatieve strategieën rond censuur aangenomen.
Overschakelen naar extremere platforms en het gebruik van geconverteerde vormen van hatelijke taal zijn tactieken die de moeilijkheden onderstrepen die platforms hebben bij het omgaan met extreme online inhoud. Debatten over de effectiviteit van online censuur kijken vaak naar het aantal takedowns, maar negeren daarom vaak hoe censuur in feite ook steun voor extreemrechts zou kunnen stimuleren.