NGO’s uiten ernstige beschuldigingen : Meta is bedoeld om dringende berichten over online haatzaaiende uitlatingen te verspillen
Een ander rapport geeft aan dat Meta er niet in slaagt kwaadaardige inhoud op Facebook en Instagram aan te pakken. Dienovereenkomstig stelt de groep zelfs fooien uit van ngo’s die uitdrukkelijk zijn genoemd voor noodgevallen. Dat kan Meta in de EU straks niet meer betalen.
Honderden ngo’s over de hele wereld kunnen aan de bel trekken als ze haat en haatdragende taal op Facebook of Instagram opmerken. Het moederbedrijf Meta verwerkt uw gegevens het liefst om bijvoorbeeld geweld en rellen te voorkomen. De ngo’s worden beschouwd als “vertrouwde partners”, betrouwbare klokkenluiders. Maar het systeem lijkt slecht te werken. Uit een rapport van de non-profit niet-gouvernementele organisatie Internews blijkt dat de reclamegroep er niet in is geslaagd consequent gevolg te geven aan deze bijzonder ernstige aanwijzingen.
Meta had het zogenaamde “Trusted Partner-programma” gelanceerd om zwakke punten en hiaten in de moderatie van inhoud te compenseren. Vooral in landen buiten de VS en Europa is er vaak een gebrek aan moderatoren die de taal spreken en bekend zijn met de politieke en culturele complexiteit van de betreffende regio. Volgens Meta zijn meer dan 400 niet-gouvernementele organisaties in 113 landen bij het programma betrokken, waaronder Tech4Peace in Irak, Defy Hate Now in Zuid-Soedan en het internationaal opererende Internews.
Meta betaalt de experts niet voor hun werk. Ze moeten haatzaaiende uitlatingen, desinformatiecampagnes en andere schadelijke inhoud opsporen en via speciale kanalen aan het bedrijf melden. Hiermee wil Meta waarschijnlijk ook voorkomen dat er opnieuw moorddadige haatcampagnes plaatsvinden; een drastisch voorbeeld zijn de misdaden tegen de Rohingya-moslimminderheid in Myanmar in 2017.
Reactie in slowmotion
De samenwerking is echter blijkbaar allesbehalve ideaal, zo blijkt uit het vorige week gepubliceerde Internews-rapport. Dienovereenkomstig is de reactietijd op informatie “onregelmatig”. Meta reageert meestal pas na enkele weken of zelfs maanden, in sommige gevallen komen er helemaal geen antwoorden. Het kan ook tijdkritische informatie zijn, bijvoorbeeld wanneer een account oproept tot geweld.
Het rapport geeft voorbeelden van het soort zaken waar het om gaat. Dienovereenkomstig waarschuwde een klokkenluider voor het verspreiden van nepnieuws. Een gemanipuleerd beeld van een persoon zou onder meer het lidmaatschap van de terreurgroep Islamitische Staat (IS) hebben aangenomen. Meta reageerde op de melding, maar hield de inhoud compatibel met de regels. Pas toen de persoon werd vermoord, verwijderde het moderatieteam de berichten.
Internews kreeg ook een verklaring van Meta voor zijn rapport. Het bedrijf geeft toe de laatste tijd onzorgvuldig te zijn geweest. Meta noemt vooral de coronapandemie als reden. Tussen 2019 en 2021 hadden de moderatieteams slechts “beperkte capaciteiten”, maar Meta verhoogde vorig jaar de middelen. Maandelijks zouden via het speciale kanaal zo’n 1.000 escalaties binnenkomen, ofwel bijna 33 per dag. Volgens Meta duurt elke tip meestal één tot vijf dagen, complexe gevallen kunnen langer duren.
Overbelast noodkanaal
“De logica van het Trusted Partner-programma is dat dergelijke klokkenluiders contextuele en taalkundige expertise inbrengen en Meta kunnen helpen de nuances van kwaadaardige inhoud in verschillende landen te begrijpen”, legt Internews uit. “Desalniettemin waren veel vertrouwde partners die voor dit rapport werden geïnterviewd, van mening dat juist deze expertise werd genegeerd en dat als gevolg daarvan soms levens op het spel stonden.”
Volgens Internews fungeert de zender momenteel als noodzender voor de geselecteerde klokkenluiders, al is het programma daar niet op ingericht en ook niet op ingericht. Sommige “vertrouwde partners” zouden noodgedwongen moeten overstappen naar andere kanalen, zoals privé-WhatsApp-berichten naar metamedewerkers die ze persoonlijk kenden. Dit is echter “oneerlijk, inefficiënt en onhoudbaar”, schrijft Internews.
Bovendien is Meta’s communicatie met zijn partners, als die er komt, “onpersoonlijk en vaak vervreemdend”. In combinatie met de lange reactietijden zou dit hebben geleid tot een verlies van vertrouwen, en een deel van de partnerorganisaties is inmiddels gefrustreerd uit de samenwerking gestapt.
Internews interviewde 24 van de 465 ‘vertrouwde partners’ voor het rapport. De inventarisatie was oorspronkelijk samen met Meta gepland, maar het bedrijf trok zich er in 2022 uit. Internews besloot toen om het rapport zelf te schrijven. Aangezien Meta om veiligheidsredenen geen volledige lijst van alle “Trusted Partners” publiceert, moest Internews zich beperken tot de hen bekende partnerorganisaties.
EU stelt speciale meldingskanalen verplicht
In ieder geval in de EU zal Meta zich zo’n lakse benadering van problematische inhoud niet veel langer kunnen veroorloven. Een woordvoerster van de EU-commissie benadrukt dat samenwerking met betrouwbare klokkenluiders voor aanbieders als Facebook nog steeds vrijwillig is. De Digital Services Act (DSA), de EU-wet op digitale diensten, voorziet echter in speciale kanalen voor experts. Volgens de wet moeten uw meldingen in de toekomst “met voorrang behandeld en direct verwerkt” worden .
Aangezien Facebook en Instagram worden beschouwd als zeer grote online platforms (Very Large Online Platform, VLOP), zou Meta eind augustus eigenlijk aan de DSA-vereisten moeten voldoen – maar nog niet de details van de geprioriteerde rapportagekanalen. Omdat de klokkenluiders worden aangesteld door de toezichthoudende autoriteiten van de EU-landen, de zogenaamde “Digital Services Coordinators”.
En die coördinatiecentra zijn er nog niet, daar hebben de EU-landen tot februari volgend jaar de tijd voor . Vanaf dan gaat echter ook deze regel in en zouden de getroffen VLOP’s zich er “nu op moeten voorbereiden”, aldus de woordvoerster van de Commissie.