Verkeerde informatie (Desinformatie) op internet is nog nooit zo slecht geweest. Of dat is tenminste mijn analyse ervan, gebaseerd op vibraties.
Desinformatie Mensen op TikTok verslinden video’s waarin een heleboel onnauwkeurige dingen worden gezegd over de gevaren van zonnebrandcrème , terwijl de app-winkel van het platform obscure boeken met nepgeneesmiddelen tegen kanker naar de bestsellerlijst van Amazon stuwt.
Ondertussen is de vermoedelijke Republikeinse kandidaat voor het presidentschap vers van wat een succesvolle poging lijkt te zijn om de inspanningen om desinformatiecampagnes over de verkiezingen aan te pakken, te neutraliseren. Ook vertelden de AI Overview-zoekresultaten van Google mensen dat ze lijm op pizza moesten smeren .
Maar dit is allemaal anekdotisch. Kan ik mijn vermoeden bewijzen met data? Helaas niet. De gegevens die ik – of beter gezegd: onderzoekers met daadwerkelijke expertise op dit gebied – daarvoor nodig zouden hebben, zijn opgesloten achter de ondoorzichtige deuren van de bedrijven die de platforms en diensten exploiteren waarop de ergste onzin van het internet wordt gehost. Het evalueren van de reikwijdte van desinformatie is tegenwoordig een afmattend en indirect proces met onvolmaakte resultaten.
Voor mijn laatste nieuwsbriefbijdrage wilde ik een manier vinden om de stand van zaken op het gebied van desinformatie online te beoordelen. Omdat ik dit onderwerp de afgelopen tijd keer op keer heb behandeld, is er één vraag die steeds in mijn hoofd opduikt: vinden bedrijven als Google, Meta en TikTok het überhaupt belangrijk om dit probleem op een zinvolle manier aan te pakken?
Ook het antwoord op deze vraag is onvolmaakt. Maar er zijn enkele dingen die tot een goede inschatting kunnen leiden.
Manieren om desinformatie te meten verdwijnen
Een van de belangrijkste dingen die een journalist kan doen als hij over de verspreiding van slechte informatie online schrijft, is een manier vinden om het bereik ervan te meten. Er is een enorm verschil tussen een YouTube-video met bijvoorbeeld 1.000 views en een video met 16 miljoen views. Maar de laatste tijd zijn enkele van de belangrijkste maatstaven die worden gebruikt om zogenaamd ‘virale’ desinformatie in context te plaatsen, uit de publieke opinie verdwenen.
TikTok heeft eerder dit jaar het aantal weergaven voor populaire hashtags uitgeschakeld en is in plaats daarvan overgestapt op het simpelweg weergeven van het aantal berichten dat op TikTok is geplaatst met behulp van de hashtag. Meta sluit in augustus CrowdTangle af , een ooit geweldig hulpmiddel voor onderzoekers en journalisten die nauwkeurig willen onderzoeken hoe informatie zich verspreidt over sociale-mediaplatforms.
Dat is slechts een paar maanden vóór de verkiezingen van 2024. En Elon Musk besloot om ‘likes’ privé te maken op het platform, een beslissing die, om eerlijk te zijn, slecht is voor de verantwoording, maar die wel enkele voordelen zou kunnen hebben voor normale gebruikers van X.
Door dit alles en de afnemende toegang tot platform-API’s zijn onderzoekers beperkt in de mate waarin ze echt kunnen volgen of praten over wat er aan de hand is.
“Hoe kunnen we de dingen in de loop van de tijd volgen? Afgezien van het vertrouwen op de woorden van het platform”, zegt Ananya Sen , assistent-professor informatietechnologie en management aan de Carnegie Mellon University, wiens recente onderzoek kijkt naar hoe bedrijven onbedoeld sites vol met desinformatie financieren wanneer ze grote advertentietechnologieplatforms gebruiken.
Verdwijnende statistieken zijn feitelijk het tegenovergestelde van wat veel experts op het gebied van gemanipuleerde informatie aanbevelen. Transparantie en openbaarmaking zijn ‘sleutelcomponenten’ van hervormingsinspanningen zoals de Digital Services Act in de EU, zegt Yacine Jernit , machine learning en maatschappelijk leider voor Hugging Face, een open-source data science- en machine learning-platform.
“We hebben gezien dat mensen die [generatieve AI]-diensten gebruiken voor informatie over verkiezingen misleidende resultaten kunnen krijgen,” voegde Jernite toe, “dus het is bijzonder belangrijk om de betrouwbaarheid van die diensten nauwkeurig weer te geven en te voorkomen dat ze te veel worden gehyped.”
Het is over het algemeen beter voor een informatie-ecosysteem als mensen meer weten over wat ze gebruiken en hoe het werkt. En hoewel sommige aspecten hiervan onder de inspanningen op het gebied van mediageletterdheid en informatiehygiëne vallen, moet een deel hiervan afkomstig zijn van de platforms en hun aanjagers. Door een AI-chatbot op te zwepen als een zoekhulpmiddel van de volgende generatie, worden verwachtingen geschapen die niet door de dienst zelf worden waargemaakt.
Platforms hebben niet veel prikkels om zich zorgen te maken
Platforms versterken niet alleen slechte informatie, ze verdienen er ook geld mee . Van aankopen in de TikTok Shop tot advertentieverkoop: als deze bedrijven zinvolle, systematische stappen ondernemen om de manier waarop desinformatie op hun platforms circuleert te veranderen, kunnen ze tegen hun zakelijke belangen ingaan.
Sociale-mediaplatforms zijn ontworpen om u dingen te laten zien waarmee u zich wilt bezighouden en die u wilt delen. AI-chatbots zijn ontworpen om de illusie van kennis en onderzoek te wekken. Maar geen van deze modellen is geschikt voor het evalueren van de waarheidsgetrouwheid, en om dit te doen moet vaak de reikwijdte van een platform dat werkt zoals bedoeld worden beperkt. Het vertragen of beperken van de werking van een platform als dit betekent minder betrokkenheid, wat geen groei betekent, wat minder geld betekent.
“Persoonlijk kan ik me niet voorstellen dat ze ooit zo agressief geïnteresseerd zouden zijn om dit aan te pakken als de rest van ons”, zegt Evan Thornburg, een bio-ethicus die op TikTok post als @gaygtownbae . “Hetgene waarmee ze geld kunnen verdienen is onze aandacht, onze interesse en onze koopkracht. En waarom zouden ze dat tot een beperkte reikwijdte beperken?
Veel platforms begonnen met tegenzin met pogingen om desinformatie aan te pakken na de Amerikaanse verkiezingen van 2016, en opnieuw aan het begin van de Covid-pandemie. Maar sindsdien is er sprake van een soort terugval. Meta ontsloeg in 2023 werknemers van teams die zich bezighielden met contentmoderatie en draaide de regels uit het Covid-tijdperk terug . Misschien zijn ze het beu om op dit moment verantwoordelijk te worden gehouden voor dit soort dingen. Of, als de technologie verandert, zien ze een kans om verder te gaan.
Dus maakt het ze uit?
Nogmaals, het is moeilijk om de inspanningen van grote platforms om desinformatie te beteugelen te kwantificeren, waardoor ik opnieuw leun op geïnformeerde gevoelens. Voor mij voelt het alsof grote platforms zich terugtrekken in het geven van prioriteit aan de strijd tegen desinformatie en desinformatie, en dat er een algemene vorm van vermoeidheid heerst over dit onderwerp in bredere zin. Dat betekent niet dat niemand iets doet.
Prebunking , waarbij geruchten en leugens preventief op feiten worden gecontroleerd voordat ze grip krijgen, is veelbelovend, vooral als het wordt toegepast op desinformatie over verkiezingen. Crowdsourced factchecking is ook een interessante aanpak. En het strekt de platforms zelf tot eer dat ze hun regels blijven bijwerken naarmate er nieuwe problemen opduiken.
Er is een manier waarop ik enige sympathie heb voor de platforms hier. Dit is een vermoeiend onderwerp, en het is moeilijk om keer op keer te horen te krijgen dat je niet genoeg doet. Maar terugtrekken en verdergaan weerhoudt slechte informatie er niet van om keer op keer een publiek te bereiken. Terwijl deze bedrijven inschatten hoeveel belang ze hechten aan het modereren en aanpakken van de capaciteit van hun platform om leugens te verspreiden, raken de mensen die het doelwit zijn van deze leugens gewond.