Zijn sociale-media-apps ‘gevaarlijke producten’? Twee wetenschappers leggen uit hoe bedrijven afhankelijk zijn van jonge gebruikers, maar er niet in slagen hen te beschermen
Mark, Je hebt bloed aan je handen’ door het sociale-media.
‘Het spijt me voor alles wat jullie hebben meegemaakt’, zei Zuckerberg. “Niemand zou de dingen moeten meemaken die uw families hebben geleden, en dit is de reden waarom we zoveel investeren en we zullen doorgaan met toonaangevende inspanningen in de sector om ervoor te zorgen dat niemand de dingen hoeft mee te maken die uw families hebben moeten ondergaan. .”
Deze citaten, de eerste van senator Lindsey Graham, RS.C., in gesprek met Mark Zuckerberg, CEO van Meta, en de tweede van Zuckerberg voor families van slachtoffers van online kindermisbruik in het publiek, zijn hoogtepunten van een buitengewone dag van getuigenissen vóór de Senaatscommissie voor Justitie over de bescherming van kinderen online.
Maar misschien wel het meest veelzeggende citaat uit de hoorzitting van 31 januari 2024 kwam niet van de CEO’s van Meta, TikTok, X, Discord of Snap, maar van senator Graham in zijn openingsverklaring: Socialemediaplatforms “zoals ze momenteel zijn ontworpen en opereren zijn gevaarlijke producten.”
Wij zijn universitaire onderzoekers die bestuderen hoe sociale media nieuws, informatie en gemeenschappen organiseren. Of sociale-media-apps nu wel of niet voldoen aan de wettelijke definitie van ‘ onredelijk gevaarlijke producten ’, de bedrijfsmodellen van sociale-mediabedrijven zijn gebaseerd op het hebben van miljoenen jonge gebruikers. Tegelijkertijd zijn wij van mening dat de bedrijven niet voldoende middelen hebben geïnvesteerd om deze gebruikers effectief te beschermen.
Het gebruik van mobiele apparaten door kinderen en tieners is tijdens de pandemie enorm gestegen en is hoog gebleven . Tieners willen uiteraard zijn waar hun vrienden zijn, of dat nu in het skatepark is of op sociale media. In 2022 waren er naar schatting 49,8 miljoen gebruikers van 17 jaar en jonger op YouTube, 19 miljoen op TikTok, 18 miljoen op Snapchat, 16,7 miljoen op Instagram, 9,9 miljoen op Facebook en 7 miljoen op Twitter, volgens een recent onderzoek van onderzoekers van Harvard Chan School of Public Health.
Tieners zijn een belangrijke bron van inkomsten voor sociale-mediabedrijven. Volgens het Chan School-onderzoek bedroegen de inkomsten van gebruikers van sociale media van 17 jaar en jonger in 2022 11 miljard dollar . Instagram verdiende bijna $5 miljard, terwijl TikTok en YouTube elk ruim $2 miljard verdienden. Tieners betekenen groen.
Sociale media brengen een reeks risico’s met zich mee voor tieners , van het blootstellen aan intimidatie, pesten en seksuele uitbuiting tot het aanmoedigen van eetstoornissen en zelfmoordgedachten. Als het Congres zinvolle actie wil ondernemen om kinderen online te beschermen, identificeren we drie kwesties waarmee rekening moet worden gehouden: leeftijd, bedrijfsmodel en moderatie van inhoud.
Sociale-media-apps: Hoe oud ben je?
Socialmediabedrijven hebben een prikkel om de andere kant op te kijken als het gaat om de leeftijd van hun gebruikers. Anders zouden ze de middelen moeten besteden om hun inhoud op de juiste manier te modereren. Miljoenen minderjarige gebruikers – onder de 13 jaar – zijn een ‘ publiek geheim ’ bij Meta. Meta heeft enkele mogelijke strategieën beschreven om de leeftijd van gebruikers te verifiëren, zoals het vereisen van identificatie of video-selfies, en het gebruik van AI om hun leeftijd te raden op basis van ‘Happy Birthday’-berichten.
De nauwkeurigheid van deze methoden staat echter niet publiekelijk ter discussie, dus het is moeilijk om ze onafhankelijk te controleren.
Meta heeft verklaard dat online wetgeving inzake de veiligheid van tieners nodig is om schade te voorkomen, maar het bedrijf wijst op app-winkels, die momenteel worden gedomineerd door Apple en Google, als de plaats waar leeftijdsverificatie zou moeten plaatsvinden. Deze vangrails kunnen echter gemakkelijk worden omzeild door naar de website van een sociale-mediaplatform te gaan in plaats van naar de app.
Sociale-media-apps: Nieuwe generaties klanten
Adoptie door tieners is cruciaal voor de voortdurende groei van alle sociale-mediaplatforms. Uit The Facebook Files , een onderzoek gebaseerd op een beoordeling van bedrijfsdocumenten, bleek dat de groeistrategie van Instagram afhankelijk is van tieners die familieleden, vooral jongere broers en zussen, helpen om op het platform te komen. Meta beweert dat het optimaliseert voor “zinvolle sociale interactie”, waarbij de inhoud van familie en vrienden voorrang krijgt boven andere interesses. Instagram staat echter pseudonimiteit en meerdere accounts toe, wat ouderlijk toezicht nog moeilijker maakt.
Op 7 november 2023 getuigde Auturo Bejar , een voormalig senior ingenieur bij Facebook, voor het Congres. Bij Meta ondervroeg hij tiener Instagram-gebruikers en ontdekte dat 24% van de 13- tot 15-jarigen zei dat ze de afgelopen zeven dagen ongewenste vooruitgang hadden ontvangen, een feit dat hij typeert als ‘waarschijnlijk de grootste seksuele intimidatie van tieners ooit. gebeurd.” Meta heeft sindsdien beperkingen op direct messaging in zijn producten voor minderjarige gebruikers geïmplementeerd.
Maar voor de duidelijkheid: wijdverbreide intimidatie, pesterijen en uitlokking maken deel uit van het landschap van sociale media, en er is meer nodig dan alleen ouders en app-winkels om dit in toom te houden.
Meta heeft onlangs aangekondigd dat het ernaar streeft tieners ‘ bij hun leeftijd passende ervaringen ’ te bieden , deels door zoekopdrachten naar termen die verband houden met zelfmoord, zelfbeschadiging en eetstoornissen te verbieden. Deze stappen weerhouden echter niet dat online communities die dit schadelijke gedrag bevorderen, kunnen floreren op de sociale mediaplatforms van het bedrijf. Er is een zorgvuldig opgeleid team van menselijke moderators nodig om schendingen van de servicevoorwaarden voor gevaarlijke groepen te monitoren en af te dwingen.
Sociale-media-apps: Content moderatie
Socialmediabedrijven wijzen op de belofte van kunstmatige intelligentie om de inhoud te modereren en veiligheid op hun platforms te bieden, maar AI is geen wondermiddel voor het beheersen van menselijk gedrag. Gemeenschappen passen zich snel aan aan AI-moderatie, waarbij verboden woorden worden aangevuld met doelbewuste spelfouten en back-upaccounts worden gemaakt om te voorkomen dat ze van een platform worden getrapt.
Het modereren van menselijke inhoud is ook problematisch, gezien de bedrijfsmodellen en -praktijken van socialemediabedrijven. Sinds 2022 hebben socialemediabedrijven massale ontslagen doorgevoerd die de kern van hun vertrouwens- en veiligheidsoperaties hebben getroffen en de contentmoderatie in de hele sector hebben verzwakt.
Het Congres zal harde gegevens nodig hebben van de socialemediabedrijven – gegevens die de bedrijven tot nu toe niet hebben verstrekt – om de juiste verhouding tussen moderators en gebruikers te beoordelen.
Sociale-media-apps: De weg vooruit
In de gezondheidszorg hebben professionals de plicht te waarschuwen als zij denken dat er iets gevaarlijks kan gebeuren. Wanneer deze ongemakkelijke waarheden in bedrijfsonderzoek naar boven komen, wordt er weinig gedaan om het publiek te informeren over bedreigingen voor de veiligheid. Het Congres zou rapportage kunnen verplichten wanneer interne onderzoeken schadelijke uitkomsten aan het licht brengen.
Om tieners vandaag de dag te helpen, zullen sociale-mediabedrijven moeten investeren in moderatie van menselijke inhoud en zinvolle leeftijdsverificatie. Maar zelfs dat zal het probleem waarschijnlijk niet oplossen. De uitdaging wordt geconfronteerd met de realiteit dat sociale media zoals die nu bestaan, gedijen doordat legioenen jonge gebruikers veel tijd doorbrengen in omgevingen die hen in gevaar brengen. Deze gevaren voor jonge gebruikers zijn ingebakken in het ontwerp van de hedendaagse sociale media, die veel duidelijkere statuten vereisen over wie toezicht houdt op sociale media en wanneer tussenkomst nodig is.
Een van de motieven voor technologiebedrijven om hun gebruikersbestand niet op leeftijd te segmenteren, wat kinderen beter zou beschermen, is hoe dit de advertentie-inkomsten zou beïnvloeden. Het Congres beschikt over beperkte instrumenten om veranderingen door te voeren, zoals het afdwingen van wetten over reclametransparantie, inclusief ‘ken uw klant’-regels. Vooral nu AI gerichte marketing versnelt, zullen socialemediabedrijven het voor adverteerders gemakkelijk blijven maken om gebruikers van elke leeftijd te bereiken.
Maar als adverteerders wisten welk percentage van de advertenties door kinderen wordt gezien in plaats van door volwassenen, zouden ze misschien wel twee keer nadenken over waar ze in de toekomst advertenties plaatsen.
Ondanks een aantal spraakmakende hoorzittingen over de schade van sociale media heeft het Congres nog geen wetgeving aangenomen om kinderen te beschermen of sociale-mediaplatforms aansprakelijk te stellen voor de inhoud die op hun platforms wordt gepubliceerd. Maar nu zoveel jonge mensen online zijn na de pandemie, is het aan het Congres om vangrails te implementeren die uiteindelijk privacy en gemeenschapsveiligheid centraal stellen in het ontwerp van sociale media.