Techbedrijven moeten verantwoordelijkheid nemen voor de verspreiding van gewelddadige extremistische inhoud en de toenemende online radicalisering.
Een nieuwsbericht dat ten onrechte beweerde dat het COVID-19-vaccin de dood van een Amerikaanse arts veroorzaakte, was het meest bekeken artikel op Facebook in de VS gedurende de eerste drie maanden van 2021. In plaats van openbaar te maken over het platform dat dergelijke verkeerde informatie promoot, hield Facebook terug op het publiceren van het rapport totdat The New York Times het bestaan ervan onthulde . Facebook was naar verluidt bezorgd dat het “het bedrijf er slecht uit zou laten zien”.
Dit is de laatste in een reeks pogingen van Facebook en andere technologiebedrijven om aansprakelijkheid te ontlopen voor de verspreiding van verkeerde informatie, gewelddadige extremistische inhoud en aanzetten tot terreur op hun platforms.
Als reactie daarop werd vorige maand een internationale top gehouden in Bergen, Noorwegen, om de 77 slachtoffers van de terreuraanslagen in Oslo en Utøya op 22 juli 2011 te herdenken. Sindsdien is radicaal-rechts extremisme een toenemende transnationale dreiging geworden, met een stijging van 320% van het aantal wereldwijde aanvallen in de afgelopen vijf jaar.
Tijdens de top maakten workshops achter gesloten deuren, discussies en vraag-en-antwoordsessies een open en robuuste dialoog mogelijk tussen toonaangevende wereldwijde belanghebbenden die zich inzetten voor de bestrijding van radicaal-rechts terrorisme en extremisme. Deze omvatten vertegenwoordigers van Facebook, Microsoft, Google, Twitter, de Britse, Amerikaanse, Nieuw-Zeelandse en Noorse regeringen, de Britse communicatieregulator OFCOM, het Global Internet Forum to Counter Terrorism, de VN, de EU en meer.
De organisatoren van “22 juli om tien” hebben het Bergen-actieplan gepubliceerd , waarin vijf stappen worden geschetst voor een gezamenlijke aanpak met meerdere belanghebbenden tussen regeringen, technologieplatforms en maatschappelijke organisaties om de verspreiding van gewelddadige extremistische inhoud aan te pakken en de stijgende cijfers te verminderen van online radicalisering.
Zwarte doos
Hoewel veel onderzoekers niet langer de technologisch deterministische opvatting onderschrijven dat sociale media de enige oorzaak zijn van radicaal-rechts extremisme, zijn er aanwijzingen dat het het proces in feite snel versnelt . Uit een intern Facebook-rapport uit 2016 bleek dat 64% van de mensen die zich bij een extremistische groep op het platform aansloten, dit deed omdat het algoritme van het bedrijf dit voorstelde. Dit verklaart waarom veel online gemeenschappen, waaronder blanke en mannelijke supremacistische groepen, kunnen fungeren als toegangspoorten tot meer extreme groepen en ideologieën.
Door het ontwerp geven Facebook-algoritmen prioriteit aan inhoud die meer klikken krijgt, wat op zijn beurt opruiende inhoud versterkt en het echokamer-effect vergroot . Blijkbaar is het gewoon niet in het belang van Facebook om een oordeel te vellen over de kwaliteit van de inhoud die op het platform wordt gedeeld, aangezien het bedrijfsmodel is gericht op het maximaliseren van de inkomsten uit advertenties. Na het Facebook-rapport van 2016 werden bijvoorbeeld wijzigingen in het ‘aanbevelingsalgoritme’ afgewezen omdat ze als ‘ anti-groei ‘ werden beschouwd .
De eerste stap van het Bergen-actieplan vraagt om een hardere en meer omvattende aanpak van de bestrijding van gewelddadig extremisme door middel van een aanpak waarbij de hele samenleving wordt betrokken, inclusief regeringen, het bedrijfsleven en maatschappelijke organisaties.
Sessies met het Amerikaanse ministerie van Buitenlandse Zaken hebben terechte zorgen geuit over hoe dit in de praktijk zou werken, niet in de laatste plaats gezien de goed gedocumenteerde weerstand van technologiebedrijven tegen het publiceren van informatie over hun algoritmen en transparantie in het algemeen. Het schijnbaar ondoordringbare black-boxkarakter van hun aanbevelingsengines is gebruikt om de verantwoordelijkheid los te laten van hun rol bij het verspreiden van extreme inhoud.
Hoewel er nog veel moet worden opgelost, heeft het Bergen-actieplan het potentieel om essentieel onafhankelijk, collegiaal getoetst onderzoek te bieden, waardoor internetgebruikers betere beslissingen kunnen nemen over de informatie die ze online consumeren en delen. De vierde stap van het Bergen-actieplan beveelt aan om een wereldwijd netwerk van maatschappelijke organisaties op te richten om het delen van methoden voor het aanpakken van alle stadia van online radicalisering te vergemakkelijken. Gespecialiseerde hulpmiddelen zoals de omleidingsmethode van Moonshot kunnen worden gebruikt om kwetsbare personen te identificeren en te beschermen, en hen te leiden naar veiliger inhoud en opgeleide counselors.
Een ander belangrijk aspect van het wereldwijde netwerk is het vermijden van dubbel onderzoek bij internationale organisaties voor terrorismebestrijding.
hele samenleving
Een ander aandachtspunt van de conferentie was de rol van contentmoderatie. Historisch gezien hebben technologiebedrijven herhaaldelijk afstand gedaan van de verantwoordelijkheid voor het verwijderen van radicaal-rechtse inhoud. Sociale-mediaplatforms kregen nieuwe kritiek nadat ze de extremistische berichten die op 6 januari aanzetten tot het geweld in het Capitool in de VS niet hadden verwijderd.
Tijdens de conferentie in Bergen bespraken vertegenwoordigers van Google en Facebook de uitdagingen van het creëren van een wereldwijde definitie van terrorisme die geen afbreuk doet aan het recht op vrijheid van meningsuiting, met name het eerste amendement op de Amerikaanse grondwet. Maar 10 jaar na de tragische gebeurtenissen van 22 juli 2011 is het terroristenmanifest “2083” van Anders Behring Breivik nog steeds een van de top Google-zoekresultaten van Noorwegen. Dit alleen al, stelt Matthew Feldman, de directeur van het Center for Analysis Radical Right, laat zien dat de aanpak van Google ontoereikend is.
Het Bergen-actieplan stelt voor om een onafhankelijk orgaan van moderators te gebruiken voor alle technologiebedrijven om transparantie en verantwoording rond moderatie beter mogelijk te maken. Moderators zouden ook worden ondersteund met counseling en geestelijke gezondheidsbronnen, omdat de aard van de inhoud waaraan ze worden blootgesteld enorm verontrustend kan zijn.
Evenzo zouden beleidsbeslissingen worden ondersteund door transparante, extern geverifieerde gegevens om meetbare effecten van elk beleid aan te tonen. De voordelen van deze aanpak worden aangetoond door Twitter’s deplatforming van Donald Trump . Binnen een week nadat de voormalige Amerikaanse president was verbannen, daalden valse beweringen over verkiezingsfraude van 2,5 miljoen naar 688.000 – een daling van 73%.
In dit plan zouden moderators ook worden opgeleid om terroristische en gewelddadige extremistische inhoud in een veelheid van talen en culturele contexten te herkennen. Dit zou een humanistische benadering bieden voor het ontcijferen van extreme retoriek en discours – een duidelijke verbetering ten opzichte van het huidige, overdreven geautomatiseerde proces dat verantwoordelijk is voor het merendeel van de inhoudsverwijdering .
Een onafhankelijke groep ervaren moderators zou beter kunnen navigeren door meer genuanceerde kwesties van annulatiecultuur en vrije meningsuiting in marginale of hoogbelaste gevallen, terwijl ook de betrokkenheid van gemarginaliseerde gebruikers behouden blijft en polarisatie wordt geminimaliseerd.
Zoals voormalig Pinterest-medewerker Ifeoma Ozoma zei , komt het aanpakken van de verspreiding van schadelijke inhoud online neer op overtuiging: “Als je wilt begrijpen hoe niet-toevallig dit is, denk dan eens aan pornografie. Hoe vaak kom je willekeurig porno tegen op Facebook, of Twitter, of YouTube, of waar dan ook? Niet zo vaak.”
Technologiebedrijven ertoe brengen om het Bergen-actieplan te onderschrijven, is misschien wel de grootste uitdaging voor het succes ervan. Het vereist een heroriëntatie van de inspanningen van Big Tech rond zorgplicht jegens gebruikers in plaats van groei en winst. Maar een maatschappelijke benadering vereist hun betrokkenheid.
Beleid dat social media bedrijven financiële prikkels bieden hebben aangetoond belofte, al hebben die de mete uit straffen, zoals het netwerk Enforcement Act in Duitsland dat boetes social media bedrijven tot € 50 miljoen ($ 58.700.000) voor het niet snel gewelddadige extremistische inhoud te verwijderen .
Uiteindelijk is een oplossing met meerdere belanghebbenden – inclusief regeringen, technische platforms en het maatschappelijk middenveld – die op zinvolle wijze door elke sector kan worden overgenomen, een ambitieuze maar essentiële taak om toekomstige gebeurtenissen zoals de opstand op Capitol Hill en radicaal-rechtse terroristische aanslagen zoals de tragedie van 2011 te voorkomen in Noorwegen.