meta

Naaktfoto’s van minderjarigen zijn strafbaar, Facebook-moeder Meta informeert registratiebureaus over ontdekte gevallen. Uit een uitgelekt document blijkt nu dat degenen die duidelijk op minderjarigen lijken, als minderjarigen werden beschouwd.

“Je ziet er helemaal niet zo oud uit” – deze zin staat boven veel Duitse supermarktkassa’s. De supermarkten vragen jong ogende mensen om begrip omdat ze bij het kopen van alcohol en tabak hun legitimatiebewijs moeten laten zien. Want of iemand echt meerderjarig is, is onmogelijk vast te stellen door er alleen maar naar te kijken.

Dat is precies wat brandweerlieden sowieso zouden moeten doen op sociale media. De leeftijd van een persoon op een naaktfoto bepaalt of het al dan niet een potentieel criminele daad van misbruik is. In Duitsland worden dergelijke illegale opnamen van personen van 14 en jonger dan 18 jaar jeugdpornografie genoemd .

The New York Times bericht nu over een werkinstructie van Meta , het moederbedrijf van Facebook, Instagram en WhatsApp. Volgens een trainingsdocument zouden brandweerlieden bij twijfel een persoon in een opname als volwassene moeten classificeren. In dit geval wordt de opname niet opgenomen in de statistieken van verdachte gevallen en worden registratiebureaus niet geïnformeerd.

Lees ook:  Kunstmatige intelligentie: EU verbiedt automatische gezichtsherkenning op openbare plaatsen - "op een paar uitzonderingen na"

Meta’s hoofd van de beveiliging, Antigone Davis, bevestigde het beleid aan de New York Times. Meta is nu alternatieven aan het controleren. Davis wijst erop dat het bedrijf een meerlagig, rigoureus beoordelingsproces hanteert. Meta rapporteert wereldwijd meer opnames dan enig ander technologiebedrijf, zei Davis.

Meta meldt miljoenen vermoedens van misbruik

In de Verenigde Staten houdt een ngo, het National Center for Missing & Exploited Children (NCMEC) genaamd, gegevens bij van meldingen van seksueel misbruik die door online platforms zijn gemeld. In 2021 waren er in totaal zo’n 29 miljoen meldingen (PDF) . Het overgrote deel kwam volgens het rapport van Meta: zo’n 22,1 miljoen van Facebook, 3,4 miljoen van Instagram, 1,4 miljoen van WhatsApp.

Ter vergelijking: volgens het NCMEC-rapport maakte TikTok slechts ongeveer 155.000 rapporten, Pornhub ongeveer 9.000. Waarschijnlijk speelt het ook een beslissende rol hoe intensief een aanbieder naar dergelijke opnames zoekt. Meta kan bijvoorbeeld ook automatisch privéchats scannen op verdachte opnames , op voorwaarde dat ze niet end-to-end versleuteld zijn . Dit wordt in Europa mogelijk gemaakt door een EU – wet die vorig jaar in allerijl is aangenomen .

Volgens de New York Times sprak het met vier voormalige brandweerlieden die namens Meta de inhoud zouden hebben gemodereerd. Ze werkten voor een extern bedrijf dat geen commentaar op de zaak gaf aan de krant. De brandweer zou de werkinstructies hebben bevestigd. Een brandweerman vertelde de New York Times dat bijvoorbeeld schaamhaar ook werd gezien als een teken van volwassenheid.

Lees ook:  In een strijd tussen AI en Deepfake bereiden onderzoekers zich voor op de komende golf van neppropaganda

Blijkbaar is Meta niet de enige met het probleem. Soortgelijke regels bestonden voor vrijwillige brandweerlieden bij xHamster, een van de drie meest bezochte pornosites ter wereld. In ieder geval tot 2020 zouden brandweerlieden daar een persoon op een geüploade naaktfoto alleen als minderjarig moeten classificeren als ze “met een grote kans om onder de 18 te zijn”. Dit blijkt uit de moderatieregels van xHamster, die exclusief door VICE magazine werden gepubliceerd .

Valse meldingen als een last voor volwassenen

Er is waarschijnlijk geen eenvoudige oplossing voor het verwijderen van opnames van mogelijk minderjarige mensen. Enerzijds zou de werkinstructie om bij twijfel ouder uitziende mensen als volwassenen in te delen, tot problemen kunnen leiden. Gevallen van seksueel geweld tegen minderjarigen zouden door Meta genegeerd kunnen worden – alleen al omdat de betrokkene er volwassen uitziet.

Aan de andere kant kan het voor volwassenen erg stressvol zijn wanneer hun opnames ten onrechte worden verdacht van criminele jeugdpornografie. In het ergste geval zouden jong ogende, volwassen mensen banger moeten zijn om zich naakt te vertonen op opnamen, omdat anders de opsporingsautoriteiten zouden kunnen worden geïnformeerd. Facebook-topman Davis vertelde de New York Times dat de gevolgen van verkeerde etikettering “levensveranderend” kunnen zijn voor de getroffenen.

Blijkbaar volgen niet alle online platforms het principe om bij twijfel te kiezen voor de meerderjarigheid bij het uitvoeren van hun verwijderingswerk. Volgens de New York Times zeiden woordvoerders van Apple, Snapchat en TikTok dat ze geseksualiseerde opnames zouden melden als de leeftijd van de persoon twijfelachtig was.

Lees ook:  Nieuw rapport Facebook kookt zijn eigen datasoep voor beeldonderhoud

Het probleem wordt bemoeilijkt door het feit dat een loutere melding geen enkele hulp is voor de getroffenen. Wat belangrijk is, is wat er daarna gebeurt. Het is duidelijk dat opsporingsinstanties niet iedereen kunnen onderzoeken met miljoenen en miljoenen rapporten. Ook Facebook-manager Davis wees de New York Times op dit knelpunt. Aan de andere kant blijft de ware omvang van het probleem onzichtbaar zonder passende rapporten. Een woordvoerster van NCMEC vertelde de krant dat beeldmateriaal altijd moet worden gerapporteerd als het een kind zou kunnen bevatten.

Overweeg alstublieft om ons te steunen als donateur of ondersteunend lid, ook wij hebben onze inkomsten zien dalen in deze heftige tijden daarom, KLIK HIER voor IBAN of via PayPal hieronder!, wil je ook onze berichten zoveel mogelijk delen dit is voor ons van levensbelang, hartelijke dank en veel leesplezier.

Steun Indignatie via PayPal veilig en simpel.



Door Indignatie redactie

Auteur en slecht gehumeurde klager

Geef een antwoord