FACEBOOK HEEFT EEN ISRAËLISCHE ADVERTENTIE GOEDGEKEURD WAARIN WORDT OPGEROEPEN TOT DE MOORD OP EEN PRO-PALESTIJNSE ACTIVIST
Nadat de advertentie was ontdekt, voerden voorstanders van digitale rechten een experiment uit om de grenzen van de machine-learning moderatie van Facebook te testen.
EEN REEKS advertenties die de Palestijnen ontmenselijken en oproepen tot geweld, bedoeld om de standaarden voor het modereren van inhoud op Facebook te testen, werden allemaal goedgekeurd door het sociale netwerk, zo blijkt uit materiaal dat werd gedeeld met The Intercept.
De ingediende advertenties, zowel in het Hebreeuws als in het Arabisch, bevatten flagrante schendingen van het beleid van Facebook en moederbedrijf Meta. Sommige bevatten gewelddadige inhoud waarin rechtstreeks werd opgeroepen tot de moord op Palestijnse burgers, zoals advertenties waarin werd opgeroepen tot een ‘holocaust voor de Palestijnen’ en tot het uitroeien van ‘vrouwen, kinderen en ouderen uit Gaza’. Andere berichten, zoals die waarin kinderen uit Gaza werden beschreven als ‘toekomstige terroristen’ en een verwijzing naar ‘Arabische varkens’, bevatten onmenselijke taal.
“De goedkeuring van deze advertenties is slechts het laatste in een reeks mislukkingen van Meta tegenover het Palestijnse volk.”
“De goedkeuring van deze advertenties is slechts het laatste in een reeks mislukkingen van Meta tegenover het Palestijnse volk”, vertelde Nadim Nashif, oprichter van de Palestijnse sociale media onderzoeks- en belangenbehartigingsgroep 7amleh, die de testadvertenties indiende, aan The Intercept. “Gedurende deze crisis hebben we een aanhoudend patroon gezien van Meta’s duidelijke vooroordelen en discriminatie tegen Palestijnen.”
Het idee van 7amleh om het machine-learning censuurapparaat van Facebook te testen ontstond vorige maand, toen Nashif een advertentie op zijn Facebook-feed ontdekte waarin expliciet werd opgeroepen tot de moord op de Amerikaanse activist Paul Larudee, medeoprichter van de Free Gaza Movement. Facebook’s automatische vertaling van de tekstadvertentie luidde: “Het is tijd om Paul Larudi [sic], de antisemitische en ‘mensenrechten’-terrorist uit de Verenigde Staten, te vermoorden.” Nashif meldde de advertentie op Facebook en deze werd verwijderd.
De advertentie was geplaatst door Ad Kan, een rechtse Israëlische groepering opgericht door voormalige Israel Defense Forces en inlichtingenofficieren om ‘anti-Israëlische organisaties’ te bestrijden waarvan de financiering afkomstig is uit zogenaamd antisemitische bronnen, aldus haar website. (Noch Larudee, noch Ad Kan reageerden onmiddellijk op verzoeken om commentaar.)
Oproepen tot de moord op een politieke activist is een overtreding van de advertentieregels van Facebook. Dat het door Ad Kan gesponsorde bericht op het platform verscheen, geeft aan dat Facebook het ondanks deze regels heeft goedgekeurd. De advertentie is waarschijnlijk gefilterd door het geautomatiseerde proces van Facebook, gebaseerd op machinaal leren, waardoor de wereldwijde advertentieactiviteiten snel kunnen opereren.
“Ons advertentiebeoordelingssysteem is ontworpen om alle advertenties te beoordelen voordat ze live gaan”, aldusOpent in een nieuw tabblad naar een overzicht van het Facebook-advertentiebeleid. Nu de op mensen gebaseerde moderatie van Meta, die van oudsher bijna geheel afhankelijk was van de arbeid van externe contractanten , steeds meer kritiek en kritiek heeft gekregen, is het bedrijf steeds meer gaan leunen op geautomatiseerde tekstscansoftware om zijn spraakregels en censuurbeleid af te dwingen.
Hoewel deze technologieën het bedrijf in staat stellen de arbeidsproblemen die gepaard gaan met menselijke moderators te omzeilen, verdoezelen ze ook de manier waarop moderatiebeslissingen worden genomen achter geheime algoritmen.
Vorig jaar bleek uit een externe audit in opdracht van Meta dat hoewel het bedrijf routinematig algoritmische censuur gebruikte om Arabische berichten te verwijderen, het bedrijf geen gelijkwaardig algoritme had om “Hebreeuwse vijandige uitlatingen” zoals racistische retoriek en gewelddadige opruiing te detecteren. Na de audit beweerde Meta dat het “een Hebreeuwse ‘vijandige spraak’-classificatie had gelanceerd om ons te helpen proactief meer inbreukmakende Hebreeuwse inhoud te detecteren.” Inhoud, dat wil zeggen, als een advertentie waarin moord wordt omarmd.
Aanzetten tot geweld op Facebook
Te midden van de Israëlische oorlog tegen de Palestijnen in Gaza was Nashif zo verontrust door de expliciete oproep in de advertentie om Larudee te vermoorden dat hij zich zorgen maakte dat soortgelijke betaalde posten zouden kunnen bijdragen aan het geweld tegen de Palestijnen.
Het op grote schaal aanzetten tot geweld dat van sociale media naar de echte wereld springt, is niet louter hypothetisch: in 2018 ontdekten onderzoekers van de Verenigde NatiesOpent in een nieuw tabbladHevig opruiende Facebook-posts speelden een “bepalende rol” in de genocide op de Rohingya in Myanmar. (Vorig jaar vertoonde een andere groep testadvertenties die aanzetten tot Rohingya, een project in dezelfde lijn als het experiment van 7amleh; in dat geval werden alle advertenties ook goedgekeurd.Opent in een nieuw tabblad.)
De snelle verwijdering van het Larudee-bericht verklaarde niet hoe de advertentie überhaupt werd goedgekeurd. In het licht van de verzekering van Facebook dat er waarborgen waren getroffen, waren Nashif en 7amleh, die formeel samenwerken met Meta op het gebied van censuur en vrijheid van meningsuiting, verbaasd.
“Meta heeft de reputatie dat ze niet genoeg doet om gemarginaliseerde gemeenschappen te beschermen.”
Benieuwd of de goedkeuring een toevalstreffer was, heeft 7amleh 19 advertenties gemaakt en ingediend, zowel in het Hebreeuws als in het Arabisch, met tekst die opzettelijk de bedrijfsregels overtreedt – een test voor Meta en Facebook. De advertenties van 7amleh waren bedoeld om het goedkeuringsproces te testen en te zien of Meta’s vermogen om automatisch gewelddadige en racistische ophitsing te screenen beter was geworden, zelfs met ondubbelzinnige voorbeelden van gewelddadige opruiing.
“We wisten uit het voorbeeld van wat er met de Rohingya in Myanmar gebeurde dat Meta de reputatie heeft niet genoeg te doen om gemarginaliseerde gemeenschappen te beschermen,” zei Nashif, “en dat hun advertentiebeheersysteem bijzonder kwetsbaar was.”
Meta’s lijkt de test van 7amleh niet te hebben doorstaan.
Het Community Standards-rulebook van het bedrijf – waaraan advertenties moeten voldoen om te worden goedgekeurd – verbiedt niet alleen teksten waarin wordt gepleit voor geweld, maar ook alle ontmenselijkende uitspraken tegen mensen op basis van hun ras, etniciteit, religie of nationaliteit. Desondanks blijkt uit bevestigingsmails die met The Intercept zijn gedeeld dat Facebook elke afzonderlijke advertentie heeft goedgekeurd.
Hoewel 7amleh aan The Intercept vertelde dat de organisatie niet van plan was deze advertenties daadwerkelijk te vertonen en ze zou verwijderen voordat ze zouden verschijnen, gelooft het bedrijf dat hun goedkeuring aantoont dat het sociale platform fundamenteel kortzichtig blijft als het gaat om niet-Engelse spraak – talen die door een grote groep worden gebruikt. meerderheid van de ruim 4 miljard gebruikers. (Meta heeft met terugwerkende kracht de Hebreeuwse advertenties van 7amleh afgewezen nadat The Intercept ze onder de aandacht van het bedrijf had gebracht, maar de Arabische versies blijven goedgekeurd binnen het advertentiesysteem van Facebook.)
Facebook-woordvoerder Erin McPike bevestigde dat de advertenties per ongeluk waren goedgekeurd. “Ondanks onze voortdurende investeringen weten we dat er voorbeelden zullen zijn van dingen die we missen of die we per ongeluk verwijderen, omdat zowel machines als mensen fouten maken”, zei ze. “Daarom kunnen advertenties meerdere keren worden beoordeeld, ook zodra ze live gaan.”
Slechts enkele dagen nadat zijn eigen experimentele advertenties waren goedgekeurd, ontdekte 7amleh een Arabische advertentie van een groep die zichzelf ‘Migrate Now’ noemde en een beroep deed op ‘Arabieren in Judea en Sumaria’ – de naam die Israëli’s, vooral kolonisten, gebruiken om naar het bezette Palestijnse Westen te verwijzen. Bank – om naar Jordanië te verhuizen.
Volgens Facebook-documentatieOpent in een nieuw tabbladgeautomatiseerde, op software gebaseerde screening is de ‘primaire methode’ die wordt gebruikt om advertenties goed te keuren of te weigeren. Maar het is onduidelijk of de algoritmen voor ‘vijandige spraak’ die worden gebruikt om gewelddadige of racistische berichten te detecteren, ook worden gebruikt in het goedkeuringsproces voor advertenties.
In zijn officiële reactie op de audit van vorig jaar zei Facebook dat zijn nieuwe Hebreeuwse taalclassificator zijn vermogen om “grote pieken in het schenden van inhoud” “aanzienlijk zou verbeteren”, zoals rond opflakkeringen van conflicten tussen Israël en Palestina, “aanzienlijk zou verbeteren”.
Op basis van het experiment van 7amleh werkt deze classificator echter niet zo goed of wordt deze om de een of andere reden niet gebruikt om advertenties te screenen. (McPike antwoordde niet op de vraag of de goedkeuring van de advertenties van 7amleh een onderliggend probleem met de vijandige spraakclassificator weerspiegelde.)
Hoe het ook zij, volgens Nashif wijst het feit dat deze advertenties zijn goedgekeurd op een algemeen probleem: Meta beweert dat het machinaal leren effectief kan gebruiken om expliciete aanzetten tot geweld te ontmoedigen, terwijl dat duidelijk niet mogelijk is.
“We weten dat Meta’s Hebreeuwse classificaties niet effectief werken, en we hebben het bedrijf niet zien reageren op vrijwel al onze zorgen”, zei Nashif in zijn verklaring. “Vanwege dit gebrek aan actie zijn we van mening dat Meta op zijn minst gedeeltelijk verantwoordelijk kan zijn voor een deel van de schade en het geweld dat de Palestijnen ter plaatse lijden.”
De goedkeuring van de Arabische versies van de advertenties komt als een bijzondere verrassing na een recent rapport van de Wall Street JournalOpent in een nieuw tabbladdat Meta het niveau van zekerheid had verlaagd dat haar algoritmische censuursysteem nodig had om Arabische posts te verwijderen – van 80 procent zekerheid dat de post de regels overtrad, naar slechts 25 procent. Met andere woorden: Meta was er minder zeker van dat de Arabische berichten die zij onderdrukte of verwijderde daadwerkelijk beleidsschendingen bevatten.
Nashif zei: “Er zijn aanhoudende acties geweest die hebben geleid tot het tot zwijgen brengen van de Palestijnse stemmen.”