Het geautomatiseerde advertentiesysteem op Facebook is zeer goed en efficiënt in het tonen van gerichte advertenties aan gebruikers waarop ze waarschijnlijk zullen klikken. Deze optimalisatie heeft echter een keerzijde: het systeem sluit bepaalde mensen uit van het zien van bepaalde advertenties, wat vooroordelen en sociale ongelijkheid kan vergroten.
Zo worden vacatures voor vrachtwagenchauffeurs op Facebook vooral aan mannen getoond, omdat het algoritme heeft vastgesteld dat mannen eerder op zulke advertenties klikken. Toen AlgorithmWatch in Duitsland een proefadvertentie voor vrachtwagenchauffeurs op Facebook plaatste, werd deze 4.864 keer aan mannen getoond, maar slechts 386 keer aan vrouwen.
Zelfs als adverteerders niet expliciet een doelgroep selecteren, sluit het algoritme toch bepaalde groepen uit. Dergelijke algoritmische discriminatie kan systematisch degenen treffen die al sociaal achtergesteld zijn, wat vooral problematisch is wanneer de adverteerders werkgevers, huisbazen of kredietinstellingen zijn.
De Europese wet verbiedt discriminatie op basis van bepaalde beschermde criteria zoals ras en geslacht. Algoritmische discriminatie op basis van deze criteria is daarom illegaal. Mensen die gediscrimineerd worden, realiseren zich echter zelden dat hun rechten zijn geschonden. In het geval van de vacature zien de mensen die worden gediscrimineerd deze niet eens en ondernemen daarom zelden juridische stappen. Meta heeft het probleem jarenlang genegeerd, zelfs toen er bewijzen kwamen voor een ongelijke reclamedistributie in de VS en Europa . Het bedrijf is er grotendeels in geslaagd de juridische verantwoordelijkheid voor de algoritmische discriminatie die op zijn platform plaatsvindt te omzeilen.
Facebook Zaken doen met het Amerikaanse ministerie van Justitie
Dat veranderde in juni 2022, toen Meta een schikking bereikte met het Amerikaanse ministerie van Justitie na een reeks rechtszaken van de American Civil Liberties Union (ACLU) en andere burgerrechtengroeperingen. Deze schikking verplichtte het bedrijf om niet langer alleen appartementadvertenties op het platform aan bepaalde gebruikers te tonen.
Meta stemde ermee in om de tool Special Ad Audiences te verwijderen, die adverteerders gebruikten om indirect specifieke doelgroepen te bereiken. Meta zou ook een nieuw systeem moeten gebruiken genaamd “ Variance Reduction System ” (VRS). Het moet ervoor zorgen dat de machine learning-algoritmen die voor reclame worden gebruikt, minder discriminerend zijn – vooral als het gaat om woningadvertenties en de daarmee gepaard gaande gender- en rassendiscriminatie.
De VRS is er niet om de klikken te optimaliseren, maar om ervoor te zorgen dat alle reclamerelevante doelgroepen even nauwkeurig worden getarget wanneer de advertenties worden geplaatst. Zodra een advertentie door een bepaald aantal gebruikers is gezien, bepaalt de VRS hun leeftijd en geslacht en schat hoe hun ‘etniciteit’ (in de VS is het gebruikelijk om te categoriseren op ‘ras’) wordt verdeeld. De VRS vergelijkt deze gegevens vervolgens met de gegevens van de potentiële doelgroepen en past de advertentieplaatsing aan zodat deze gelijkmatig wordt verdeeld.
Een jaar na de schikking met het Amerikaanse ministerie van Justitie beweert adviesbureau Guidehouse in een compliancerapport dat Metas VRS werkt zoals bedoeld. Maar het rapport bevat lacunes, waardoor deze bewering moeilijk te verifiëren is. Ook al is het aantal discriminerende woningadvertenties in de VS daadwerkelijk aan banden gelegd, discriminerende advertenties uit andere gebieden zijn nog steeds wijdverspreid op Facebook; Dit geldt met name voor advertenties die in Europa zijn geplaatst, waar VRS waarschijnlijk niet zal worden gebruikt.
Meta’s vrijwillige zelfregulering kan een kleine overwinning zijn voor Amerikaanse burgerrechtengroepen. Maar het laat ook zien dat Meta de risico’s van haar systeem voor gerichte reclame niet consequent verkleint. Ze zullen ongereguleerd blijven, tenzij de autoriteiten ingrijpen.
Facebook Wat wordt gecontroleerd?
Meta had Guidehouse (een spin-off van Big Four accountantskantoor PwC) de opdracht gegeven om als onafhankelijke derde partij op te treden om te controleren of aan de VRS-eisen werd voldaan. In het eerste rapport van juni 2023 bevestigde Guidehouse dat Meta aan de relevante VRS-statistieken had voldaan. Dit geldt dus voor de categorieën ‘geslacht’ en ‘ras/etniciteit’ zowel voor appartementadvertenties met minimaal 300 views als voor appartementadvertenties met meer dan 1.000 views.
Het rapport is echter niet bestand tegen externe controle, zegt Daniel Kahn Gillmor, die voor de ACLU aan privacy en technologie werkt. Het rapport concentreert zich te veel op technische details, terwijl het nog steeds niet alle belangrijke technische vragen beantwoordt. Gillmor klaagt ook dat Guidehouse blijkbaar geen toegang heeft gekregen tot de interne gegevens van Meta om een grondige audit uit te voeren. In plaats daarvan werden alleen de door Meta verstrekte tabellen gecontroleerd – en in deze tabellen werd cruciale informatie weggelaten.
De gegevens geven bijvoorbeeld niet aan hoeveel weergaven elke appartementadvertentie had, waarbij de grens van 1000 advertentieweergaven werd overschreden. We weten dus niet of sommige advertenties ongeveer een miljoen keer zijn bekeken. Meta geeft ook niet aan hoeveel gebruikers er waren aan wie het systeem geen ‘etniciteit’ of geslacht kon toekennen.
De categorieën ‘geslacht’ en vooral ‘ras’ zijn sowieso twijfelachtig, omdat het geen onbetwiste kenmerken zijn zoals lengte of leeftijd. Meta zelf heeft erkend dat het statistische model dat ten grondslag ligt aan de VRS mogelijk minder nauwkeurig is voor gekleurde mensen dan voor blanke mensen.
Afgezien van deze fundamentele zorgen heeft Meta geen perfecte concepten nodig voor de categorieën geslacht en ras/etniciteit om het systeem te gebruiken om discriminatie te voorkomen, zei Gillmor. De auditors daarentegen hebben betere gegevens nodig om te kunnen beoordelen of het systeem effectief is of niet. En de examinatoren moeten op zijn minst een globaal idee hebben van hoeveel data Meta voor hen achterhoudt.
“Er ontbreken hier veel stukken en ik kan niet zeggen of Guidehouse ze van Facebook heeft gekregen. Als auditor zou ik verwachten dat een organisatie als Guidehouse essentiële gegevens eist, zonder welke een zinvolle audit niet mogelijk is.” Guidehouse zou op zijn minst moeten documenteren hoe groot de datakloof is. Nu lijkt het zo groot te zijn dat het twijfelachtig is of de gegevens van Meta op de VRS correct zijn verzameld. Meta reageerde niet op twee verzoeken om commentaar. Guidehouse weigerde commentaar te geven, daarbij verwijzend naar de noodzaak om vertrouwelijke informatie over klanten te beschermen.
Facebook Wat is de zin van dit alles?
Muhammad Ali is een postdoctoraal onderzoeker aan de Northeastern University in Boston en werkt aan verantwoorde AI. Hij was co-auteur van een invloedrijk artikel uit 2019 waarin hij beschrijft hoe de advertentieweergave van Facebook tot vertekende resultaten kan leiden. Volgens Ali zat er veel inspanning achter de VRS, maar bleven de daadwerkelijke problemen van advertentie-optimalisatie bestaan. “Vanuit technisch oogpunt is wat ze hebben gebouwd zeer lovenswaardig”, zegt Ali, verwijzend naar een paper waarin twaalf meta-ingenieurs in detail de methoden achter de VRS beschrijven. Het is een vreemd complex systeem dat eigenlijk alleen bedoeld is om een klein probleem – het plaatsen van appartementsadvertenties – op te lossen nadat dit wettelijk verplicht werd gesteld.
Meta heeft aangekondigd dat het VRS ook wil gebruiken voor krediet- en vacatures in de VS. Volgens Ali kan echter niet worden verwacht dat het in de nabije toekomst zonder enorme technische inspanningen kan worden uitgebreid naar landen buiten de VS. De VRS is gebaseerd op een model dat censusgegevens (zoals adressen en achternamen) gebruikt om het ‘ras/etniciteit’ van doelgroepen in te schatten.
In een land als India met een kastensysteem zijn er geen gegevens om de verwantschap op basis van bijvoorbeeld achternamen vast te stellen, zoals Ali uitlegt. Dergelijke gegevens zouden dus eerst moeten worden verzameld om een heel ander systeem te kunnen ontwikkelen. Dergelijke problemen zouden met passende inspanningen in individuele landen kunnen worden verholpen, maar het zouden slechts oplossingen zijn voor zeer specifieke gevallen.
Volgens Ali zijn er naast vacatures, appartementen en leningen ook nog een aantal andere problematische advertenties. Als iemand bijvoorbeeld geïnteresseerd is in een dieet, kan die persoon veel advertenties voor afslankproducten op het platform zien. Als iemand geïnteresseerd is in gokken, kan die persoon op zijn beurt veel advertenties voor online gokautomaten en weddenschappen zien. Dus als het om gerichte reclame gaat, moeten mensen met persoonlijke zwakheden, zoals verslavingsproblemen of problemen met het lichaamsbeeld, worden beschermd, concludeert Ali. Dit kan echter niet gebeuren zolang het systeem gericht is op winst en niet op het welzijn van de gebruikers.
Facebook Wat zegt de EU-regelgeving?
De nieuwe EU Digital Services Act (DSA) is nu van toepassing op de grootste platforms en zoekmachines die in de EU actief zijn. Platforms mogen geen advertenties meer tonen op basis van ‘gevoelige’ gegevenscategorieën: zoals ‘ras’, geslacht, religie en seksuele geaardheid. Ze zijn ook verplicht om “systeemrisico’s” die uit hun diensten voortvloeien, te identificeren en te beperken, zoals negatieve gevolgen voor de grondrechten en het verbod op discriminatie dat is vastgelegd in artikel 21 van het EU- Handvest .
Deze wettelijke vereisten waren eigenlijk bedoeld om de discriminerende advertentieplaatsing van Meta te voorkomen. Op dit moment lijken de instanties die belast zijn met de implementatie van de DSA zich echter meer bezig te houden met het beteugelen van illegale inhoud over de huidige oorlogen dan met het aanpakken van fundamentele kwesties zoals algoritmische discriminatie of potentiële gezondheidsrisico’s die voortkomen uit de algoritmische optimalisatie van de resultaten van de reclamedoelgroep.
Meta’s aanpak om algoritmische discriminatie bij het aanbieden van advertenties te voorkomen, zal geen invloed hebben op de risico’s die het gerichte advertentiesysteem zelf met zich meebrengt. Het bedrijf zou fundamentele veranderingen moeten aanbrengen in zijn op reclame gebaseerde bedrijfsmodel om het in overeenstemming te brengen met de wet. Dit heeft niet alleen gevolgen voor de DSA: de Europese Raad voor Gegevensbescherming heeft besloten de gerichte reclamepraktijken van Meta te verbieden op grond van de Algemene Verordening Gegevensbescherming (AVG). Meta hoopt nu de door de AVG vereiste toestemming van gebruikers voor de verwerking van hun gegevens te vervullen met een advertentievrij abonnement waarin gebruikers uiteindelijk betalen voor hun privacy.
Voor Europese toezichthouders en toezichthouders is het leerzaam hoe Meta omgaat met de VRS. Ze zullen binnenkort een reeks rapporten evalueren die Big Tech-bedrijven hebben ingediend om te documenteren hoe zij voldoen aan de DSA-regelgeving. De auditeisen ten aanzien van de VRS staan onder Amerikaans toezicht. Ze zijn vergelijkbaar met de complexere eisen die in de DSA zijn vastgelegd.
De DSA vereist dat de grootste technologieplatforms en zoekmachines die in de EU actief zijn, jaarlijks audits ondergaan door onafhankelijke instanties. Net als Guidehouse worden deze toetsingsorganen in opdracht van de technologiebedrijven zelf gemaakt. Zij moeten preferentiële toegang krijgen tot gegevens en werknemers om te controleren of bedrijven voldoen aan hun verplichting om systeemrisico’s te identificeren en te bestrijden.
Dergelijke evaluaties van systeemrisico’s vinden al plaats. Het is echter onduidelijk hoe de platforms deze willen vaststellen, detecteren en vermijden. Zolang de toezichthouders geen richtlijnen opstellen voor het beoordelen van systeemrisico’s, zullen de platforms hun eigen standaarden voorleggen aan de controle-instanties ter beoordeling van hun maatregelen. De tests zouden daarom verzacht kunnen worden met de methoden en standaarden van de technologiebedrijven , wat hun effectiviteit en betrouwbaarheid zou ondermijnen. De onafhankelijkheid van de controle-instanties is al een kwetsbare structuur, omdat dergelijke controlecontracten voor hen lucratief zijn.
Facebook We hebben sterkere externe controles nodig
Ongeacht de resultaten van deze risicobeoordelingen en audits zal het publiek binnenkort overweldigd worden door compliancerapporten van Big Tech-bedrijven. Eind oktober werd de eerste ronde van DSA-transparantierapporten vrijgegeven door enkele van de grootste platforms. Herziene auditrapporten over hoe de platforms de risico’s van hun systemen beoordelen, zullen naar verwachting eind volgend jaar volgen.
Dit soort transparantie helpt goed omdat het zowel toezichthouders en toezichthoudende autoriteiten als maatschappelijke organisaties informatie geeft om mee te werken. Maar dit zal nog veel meer vragen oproepen die, gezien de beperkte bereidheid van de platforms om informatie te verstrekken, waarschijnlijk de beperkingen van deze rapporten zullen aantonen.
Naast officiële audits (zij het onder de Amerikaanse of Europese wetgeving) zijn onafhankelijke, kritische audits nodig om algoritmische platformsystemen te onderzoeken. Dergelijke audits moeten worden uitgevoerd door individuen en organisaties die niet op de loonlijst van Meta of een ander Big Tech-bedrijf staan. Er zou dan geen sprake zijn van belangenverstrengeling voor de examinatoren.
Om de advertentiesystemen van Facebook onafhankelijk te kunnen laten controleren, moet Meta onderzoek in het algemeen belang mogelijk maken. Het zou onderzoekers ook in staat moeten stellen pseudonieme accounts op te zetten om zogenaamde ‘sockpuppet’-audits uit te voeren. Hiermee wordt getest wat normale gebruikers zien als ze zich op een bepaalde online manier gedragen. Facebook zou onderzoekers ook moeten toestaan datadonaties van echte gebruikers te verzamelen. In het verleden reageerde Meta echter op projecten waarbij dergelijke methoden werden gebruikt met intimidatietactieken , waardoor deze projecten moesten worden geannuleerd .
De DSA zou dergelijke onderzoeksprojecten kunnen beschermen door een juridisch kader op te zetten voor de toegang tot platformgegevens, maar dit proces is nog steeds aan de gang. De Europese Commissie moet de details nog uitwerken in een zogenoemde gedelegeerde verordening , die begin volgend jaar moet plaatsvinden. Maar zelfs een dergelijk juridisch kader zou de grote platformexploitanten er niet van weerhouden onderzoekers aan te klagen wier resultaten hen niet bevallen.
Er zijn grote problemen met het versterken van onderzoek in het algemeen belang. We hebben dergelijk onderzoek echter nodig om Big Tech verantwoordelijk te houden voor risico’s die mogelijk niet in hun zelf ingediende transparantierapporten voorkomen. Zolang er geen betere voorwaarden zijn voor onderzoek in het algemeen belang zullen de platformbedrijven in hun compliancerapportages eenvoudigweg verklaren dat zij goed voldoen aan de DSA-regelgeving. Uw kijk op de zaken vervangt echter niet een neutrale beoordeling.