Algoritmen Er wordt vaak gezegd dat de algoritmen van sociale platforms mede verantwoordelijk zijn voor de verspreiding van valse informatie en sociale polarisatie. Maar klopt dat ook? Vier recente studies komen tot gemengde conclusies.
Het is een groot wetenschappelijk project: in totaal 16 onderzoeken onderzoeken wetenschappers welke invloed algoritmen hebben op de verspreiding van desinformatie en polarisatie. De focus ligt op twee van ’s werelds grootste sociale netwerken: Facebook en Instagram. Beide platformen behoren tot de techgroep Meta.
De eerste vier onderzoeken zijn inmiddels gepubliceerd in de wetenschappelijke tijdschriften Science en Nature . De resultaten schetsen – althans voor de tweede helft van 2020 in de Verenigde Staten – een genuanceerd beeld van hoe Amerikanen sociale netwerken gebruiken en de impact die dit heeft op hun politieke overtuigingen en maatschappelijk discours.
Volgens dit spelen de twee platforms een cruciale rol bij het leiden van gebruikers naar inhoud waarmee ze het waarschijnlijk eens zijn. De studies vragen zich echter af of meta de politieke overtuigingen van gebruikers aanzienlijk kan beïnvloeden.
Vanuit het oogpunt van Meta bevestigen de onderzoeken eerdere uitspraken van het bedrijf dat het voor gebruikers voordelig is als algoritmen hun feeds sorteren. Critici werpen tegen dat de onderzoeken vooral aantonen dat de problematiek diverser is dan eerder werd aangenomen en dat het bedrijf niet van zijn verantwoordelijkheid is ontheven.
Verergeren algoritmen sociale polarisatie?
Het onderzoek ging officieel van start eind augustus 2020, dus vóór de Amerikaanse presidentsverkiezingen in november van hetzelfde jaar. Een team van zo’n twee dozijn Facebook-onderzoekers en externe wetenschappers heeft maandenlang specifiek gekeken naar de effecten van Facebook en Instagram op onder meer politieke participatie, politieke polarisatie en het verspreiden van misvattingen.
Tienduizenden Amerikaanse Facebook- en Instagram-gebruikers namen gedurende een periode van bijna drie maanden deel aan drie van de vier onderzoeken. Uw identificatiegegevens zijn onherkenbaar gemaakt. Voor de vierde studie voorzag Meta de onderzoekers van geanonimiseerde gegevens van ongeveer 208 miljoen Facebook-gebruikers.
In het eerste onderzoek, getiteld “Hoe beïnvloeden algoritmen voor feeds van sociale media attitudes en gedrag in verkiezingscampagnes?”, zagen deelnemende Facebook- en Instagram-gebruikers gedurende drie maanden een nieuwsfeed chronologisch gesorteerd in plaats van algoritmisch gesorteerd. De berichten werden daarom gesorteerd op hoe recent ze waren en niet in de eerste plaats op de persoonlijke interesses van de individuele gebruikers.
De onderzoekers ontdekten dat de chronologische weergave – een optie die Facebook zijn gebruikers pas onlangs weer heeft aangeboden – “het aandeel inhoud van bronnen die als onbetrouwbaar worden beschouwd, met meer dan tweederde verhoogde in vergelijking met de algoritmische feed, terwijl het de weergave van onbeschofte inhoud verminderde met bijna half”. Tegelijkertijd had de chronologische weergave echter geen significante invloed op de “polarisatie” of de politieke kennis van de mensen.
Algoritmen hebben ongetwijfeld een grote invloed op hoe mensen inhoud op platforms waarnemen, vertelde Talia Jomini Stroud, een van de onderzoeksleiders en directeur van het Center for Media Engagement aan de Universiteit van Texas, aan de Guardian, “maar we ontdekten ook dat [ … ] een verandering in de algoritmen van sociale media heeft geen invloed gehad op de politieke houding.”
En er is nog iets anders aangetoond: zonder een algoritmisch voorgesorteerde feed wordt de tijd die gebruikers op Facebook of Instagram doorbrengen aanzienlijk verminderd. Tegelijkertijd brachten ze meer tijd door op TikTok, YouTube en andere platforms. Vanuit het oogpunt van de onderzoekers toont dit aan hoe belangrijk algoritmisch sorteren om economische redenen is voor Meta.
Facebook en Instagram zijn krachtige cureermachines
De tweede studie keek naar het gebruiksgedrag van ongeveer 208 miljoen Amerikaanse Facebook-gebruikers in de VS rond de Amerikaanse presidentsverkiezingen in 2020 – met name van september 2020 tot februari 2021.
De onderzoekers concluderen dat Facebook “ideologisch sterk verdeeld is – veel meer dan eerder onderzoek naar online nieuwsconsumptie op basis van surfgedrag heeft aangetoond.” Aanzienlijk meer via Facebook-pagina’s en -groepen. Vanuit het oogpunt van de onderzoekers illustreert dit dat Facebook-pagina’s en -groepen een “zeer krachtige curatie- en distributiemachine” zijn.
Uit de studie blijkt ook dat veel meer conservatieven verkeerde informatie zien en delen dan liberalen. Dienovereenkomstig was 97 procent van de als desinformatie verklaarde rapporten populairder bij conservatieven dan bij liberalen. Conservatieven hebben ook de neiging om relatief meer politiek nieuws te lezen dan andere conservatieven, zo blijkt uit de studie.
Weinig invloed op overtuigingen
Het gedrag van de gebruikers heeft echter geen directe invloed op hun overtuigingen, zo blijkt uit het derde onderzoek . Voor deze studie verminderden de onderzoekers de hoeveelheid inhoud die door “gelijkgestemde” connecties op de feeds van meer dan 23.000 Facebook-gebruikers werd geplaatst met ongeveer een derde.
Dit betekende dat gebruikers aanzienlijk meer inhoud zagen van bronnen buiten hun eigen politieke spectrum. Ze hadden echter minder interactie met deze inhoud dan met inhoud die overeenkwam met hun eigen overtuigingen. Het belangrijkste was dat de andere inhoud geen meetbare invloed had op de overtuigingen van de deelnemers aan de studie, hun beoordeling van politieke kandidaten of politieke polarisatie in het algemeen.
Het vierde onderzoek , dat het gedrag van 27.000 Facebook- en Instagram-gebruikers onderzocht, komt tot een vergelijkbare conclusie . Hier ontzegden de onderzoekers de deelnemers de mogelijkheid om opnieuw berichten te delen. Deze zogenaamde reshares zorgen ervoor dat content “viral” gaat op Facebook.
Als de mogelijkheid ontbreekt, heeft dit invloed op de manier waarop politiek nieuws en berichten uit onbetrouwbare bronnen worden verspreid. Hierdoor neemt onder andere de kennis van de studiedeelnemers over politiek nieuws af. Dit heeft volgens het onderzoek echter ook geen noemenswaardige gevolgen voor de overtuigingen van de gebruikers.
De resultaten zijn slechts in beperkte mate generaliseerbaar
Meta ziet zichzelf bevestigd door de eerdere onderzoeksresultaten. Volgens Nick Clegg, hoofd van de bedrijfscommunicatie van Metas, toont het onderzoek aan “dat er weinig bewijs is dat de kernkenmerken van Metas-platforms alleen schadelijke ‘affectieve’ polarisatie veroorzaken of enige betekenisvolle invloed hebben op belangrijke politieke attitudes, overtuigingen of gedragingen.”
Maar zelfs de onderzoekers die de eerste studie hebben gemaakt, zeggen dat de resultaten van de onderzoeken slechts in beperkte mate kunnen worden gegeneraliseerd. De studieperiode van drie maanden is dan ook langer dan die van veel andere studies over politieke communicatie. De resultaten “kunnen echter anders zijn geweest als deze studie niet was uitgevoerd tijdens een gepolariseerde verkiezingscampagne […] en in een specifieke politieke context (de Verenigde Staten).”
Klokkenluider Frances Haugen had ook kritiek op de timing van de onderzoeken. De voormalige Facebook-productmanager, die in 2021 duizenden interne Facebook-documenten doorgaf aan de Securities and Exchange Commission , wijst er onder meer op dat Meta in de maanden voorafgaand aan de verkiezingen al enkele “van zijn meest agressieve verkiezingsbeschermingsmaatregelen” had geïmplementeerd. de toenmalige Amerikaanse presidentsverkiezingen om extreme posten tegen te gaan. Volgens Haugen heeft de groep na de verkiezingen veel van de maatregelen teruggenomen.
Meta mag de verantwoordelijkheid niet ontlopen
Meta mag zichzelf in ieder geval niet te hard op de borst kloppen voor het beschikbaar stellen van haar data aan onderzoekers. Volgens Clegg zal het “ongekende onderzoekspartnerschap tussen Meta en externe academici” waarschijnlijk gedwongen worden om door te gaan: volgens de Digital Service Act (DSA), die afgelopen november van kracht werd, zullen internetplatforms veel strenger moeten optreden tegen “systeemrisico’s” in de toekomst dan in het verleden.
Deze risico’s zijn onder meer de systematische schending van de privacy of het recht op vrijheid van meningsuiting. Om deze risico’s überhaupt te kunnen ontdekken, geeft de EU-wetgeving onderzoekers uitgebreide toegang tot de gegevens van de grote platforms – of ze dat nu willen of niet.
Ook burgerrechtenorganisaties wijzen erop dat de onderzoeksresultaten Meta en andere technologiebedrijven niet ontslaan van de verantwoordelijkheid die zij dragen voor maatschappelijke verdeeldheid, politieke onrust en de verspreiding van complottheorieën.
“De door Meta ondersteunde onderzoeken, die kijken naar kleine steekproefperioden, mogen niet worden gebruikt als excuus voor het verspreiden van leugens”, vertelde Nora Benavidez , senior counsel bij burgerrechtengroep Free Press , aan The Washington Post . “Social-mediaplatforms zouden meer betrokken moeten worden bij de aanloop naar verkiezingen en geen nieuwe plannen moeten smeden om de verantwoordelijkheid te ontlopen”, aldus de advocaat.
Professor journalistiek Michael W. Wagner, die doceert aan de Universiteit van Wisconsin en optreedt als onafhankelijk waarnemer van de onderzoekssamenwerking, neemt een soortgelijk standpunt in. Volgens hem bewijzen de studies geenszins dat sociale platforms zoals Facebook “geen probleem vormen”. Volgens hem dienden de onderzoeken eerder als “goed wetenschappelijk bewijs dat er niet slechts één probleem is dat gemakkelijk op te lossen is”.