De EU en regeringen van andere landen zijn van plan de wet te wijzigen, zodat sociale mediabedrijven zoals Facebook en Twitter geen andere keuze hebben dan verantwoordelijkheid te nemen voor de veiligheid van hun gebruikers.
Plannen om een zorgplicht op te leggen aan onlinediensten houden in dat bedrijven moeten bepalen of de inhoud ” een redelijkerwijs te verwachten risico op aanzienlijke nadelige fysieke of psychologische gevolgen ” vormt voor al hun gebruikers.
Het niet naleven van de nieuwe zorgplichtnorm kan leiden tot boetes tot £ 18 miljoen of 10% van de wereldwijde jaaromzet en kan de toegang tot hun diensten in het VK worden geblokkeerd.
De Britse regering heeft haar definitieve reactie vrijgegeven op de input van het publiek over het witboek over online schade dat het in april 2019 publiceerde, in afwachting van een “online veiligheidswet” die gepland staat om in 2021 te worden geïntroduceerd .
De voorstellen van de regering zijn goed bedoeld, maar missen duidelijke instructies om toezichthouders en socialemediabedrijven te begeleiden. Door dit niet te doen, heeft de overheid daarbij een bedreiging voor de vrijheid van meningsuiting gecreëerd.
Een inconsistent trackrecord
Volgens de voorstellen zullen bedrijven maatregelen moeten nemen om de verspreiding van schadelijke inhoud te beperken, in verhouding tot de ernst en omvang ervan .
Momenteel zijn socialemediabedrijven alleen verplicht om door gebruikers gegenereerde inhoud die op hun services wordt gehost onder zeer specifieke omstandigheden te verwijderen (bijvoorbeeld als de inhoud illegaal is ). Meestal zijn ze vrij om te beslissen welke inhoud moet worden beperkt of verboden. Ze hoeven zich alleen aan hun eigen gemeenschapsnormen te houden, met soms gemengde [resultaten].
Zoals Facebook meldde in zijn handhavingsrapport voor gemeenschapsstandaarden , vond en markeerde het voor het eerste kwartaal van 2020 slechts 15,6% van de inhoud die werd gepest en lastiggevallen voordat gebruikers het meldden. Omgekeerd detecteerde het bedrijf preventief 99% van alle “gewelddadige en expliciete” inhoud voordat deze door gebruikers werd gemeld. Deze ongelijkheid in opsporingspercentages geeft aan dat de processen die worden gebruikt om “schadelijke” inhoud te identificeren, werken wanneer de criteria duidelijk en goed gedefinieerd zijn, maar – zoals het cijfer van 15,6% laat zien – mislukken wanneer interpretatie en context een rol spelen.
Sociale mediabedrijven zijn bekritiseerd vanwege het inconsistent handhaven van verboden op haatzaaiende uitlatingen en seksistische inhoud. Omdat ze alleen beslissingen hoeven te rechtvaardigen om legale maar potentieel schadelijke inhoud te verlaten of te verwijderen op basis van hun eigen gemeenschapsnormen, lopen ze geen risico op juridische repercussies. Als het onduidelijk is of een deel van de inhoud in strijd is met regels, is het de keuze van het bedrijf om het te verwijderen of weg te laten. Risicobeoordelingen volgens het regelgevingskader dat in de voorstellen van de regering is uiteengezet, kunnen echter heel verschillend zijn.
Gebrek aan bewijs
Zowel in de whitepaper als in de volledige respons geeft de overheid onvoldoende informatie over de impact van de schade die ze wil beperken. Het witboek stelt bijvoorbeeld dat een op de vijf kinderen van 11-19 jaar in 2017 aangaf cyberpesten te hebben ervaren, maar laat niet zien hoe (en hoeveel) die kinderen werden getroffen. Er wordt simpelweg van uitgegaan dat de soorten inhoud die binnen het toepassingsgebied vallen schadelijk zijn, met weinig rechtvaardiging waarom, of in welke mate, hun regelgeving een beperking van de vrijheid van meningsuiting rechtvaardigt .
Zoals uit de gegevens van Facebook blijkt, kan het moeilijk zijn om de betekenis en mogelijke impact van inhoud te interpreteren in gevallen waarin sprake is van subjectiviteit. Als het gaat om het beoordelen van de schadelijke effecten van online-inhoud, is dubbelzinnigheid de regel, niet de uitzondering.
Ondanks de groeiende basis van academisch onderzoek naar online schade, kunnen er maar weinig duidelijke beweringen worden gedaan over de associaties tussen verschillende soorten inhoud en de ervaring van schade.
Er zijn bijvoorbeeld aanwijzingen dat de inhoud van eetstoornissen schadelijk kan zijn voor bepaalde kwetsbare mensen, maar geen gevolgen heeft voor het grootste deel van de algemene bevolking. Aan de andere kant kan dergelijke inhoud ook dienen als een middel ter ondersteuning van personen die worstelen met eetstoornissen. Als u begrijpt dat dergelijke inhoud voor sommigen zowel riskant als nuttig is voor anderen, moet deze dan worden beperkt? Zo ja, hoeveel en voor wie?
Door het gebrek aan beschikbaar en rigoureus bewijs hebben sociale-mediabedrijven en regelgevers geen referentiepunten om de mogelijke gevaren van door gebruikers gegenereerde inhoud te evalueren. Aan hun lot overgelaten, kunnen sociale mediabedrijven de normen bepalen die het beste hun eigen belangen dienen.
Gevolgen voor de vrijheid van meningsuiting
Socialmediabedrijven slagen er al niet in om hun eigen gemeenschapsnormen consequent af te dwingen. Volgens de voorstellen van de Britse regering zouden ze een vaag gedefinieerde zorgplicht moeten handhaven zonder voldoende uitleg over hoe dat moet. Bij gebrek aan praktische richtlijnen om aan die plicht te voldoen, kunnen ze eenvoudigweg de weg van de minste weerstand blijven kiezen door twijfelachtige inhoud ijverig te blokkeren.
De voorstellen van de regering tonen onvoldoende aan dat de gepresenteerde schade ernstige mogelijke beperkingen van de vrijheid van meningsuiting rechtvaardigt. Om ervoor te zorgen dat de wetsvoorstel voor onlineveiligheid niet leidt tot die ongerechtvaardigde beperkingen, moeten de regelgevers en de betrokken socialemediadiensten duidelijker worden begeleid bij de evaluatie van onlineschade.