
Als onderdeel van wat het bedrijf een nieuwe aanpak noemt, klaagt Meta een nudify-app aan en “verscherpt” de handhaving ervan.
Meta zegt dat het een nudify-app aanklaagt die volgens 404 Media duizenden advertenties op Instagram en Facebook heeft gekocht en daarmee herhaaldelijk de regels van de app heeft overtreden.
Meta klaagt Joy Timeline HK Limited aan, de organisatie achter de CrushAI nudify-app waarmee gebruikers een foto van iemand kunnen maken en AI-gegenereerde naaktfoto’s van hen kunnen genereren zonder hun toestemming. Meta zegt de rechtszaak te hebben aangespannen in Hongkong, waar Joy Timeline HK Limited is gevestigd, “om te voorkomen dat ze reclame maken voor CrushAI-apps op Meta-platforms”, aldus Meta.
In januari meldde 404 Media dat CrushAI, ook bekend als Crushmate en andere namen, meer dan 5000 advertenties op het platform van Meta had geplaatst en dat 90 procent van het verkeer van Crush afkomstig was van het platform van Meta , een duidelijk teken dat de advertenties effectief waren in het leiden van mensen naar tools die niet-consensuele media creëren.
Alexios Mantzarlis, nu van Indicator , was de eerste die berichtte over het verkeer van Crush dat afkomstig was van Meta. Destijds vertelde Meta ons: “Dit is een zeer vijandige omgeving en kwaadwillenden ontwikkelen voortdurend hun tactieken om handhaving te omzeilen. Daarom blijven we investeren in de beste tools en technologie om inbreukmakende content te identificeren en te verwijderen.”
“Deze juridische actie onderstreept zowel de ernst waarmee we dit misbruik nemen als onze toewijding om alles te doen wat we kunnen om onze community ertegen te beschermen”, aldus Meta in een bericht op haar website waarin de rechtszaak werd aangekondigd. “We zullen de nodige stappen blijven ondernemen – waaronder mogelijk juridische stappen – tegen degenen die onze platforms op deze manier misbruiken.”
CrushAI is echter lang niet de enige nudify-app die advertenties koopt op de platforms van Meta. Vorig jaar meldde ik al dat deze advertenties veel voorkwamen , en ondanks dat onze berichtgeving ertoe leidde dat de advertenties werden verwijderd en Apple en Google de apps uit hun app stores verwijderden , blijven er nieuwe apps en advertenties opduiken.
Meta zei dat het nu, wanneer het advertenties voor nudify-apps verwijdert, de URL’s van die apps en sites zal delen met andere techbedrijven via het Lantern-programma van de Tech Coalition, zodat die bedrijven ook onderzoek kunnen doen naar die apps en actie kunnen ondernemen. Leden van die groep zijn onder andere Google, Discord, Roblox, Snap en Twitch. Daarnaast zei Meta dat het zijn handhaving tegen deze “adversarial adverteerders” “versterkt”.
“Net als andere vormen van online geweld is dit een vijandige omgeving waarin de mensen erachter – die voornamelijk financieel gemotiveerd zijn – hun tactieken blijven ontwikkelen om detectie te voorkomen. Sommigen gebruiken bijvoorbeeld onschuldige afbeeldingen in hun advertenties om te voorkomen dat ze worden opgemerkt door onze technologie voor het detecteren van naaktheid, terwijl anderen snel nieuwe domeinnamen creëren om de websites te vervangen die we blokkeren”, aldus Meta. “Daarom ontwikkelen we ook onze handhavingsmethoden.
We hebben bijvoorbeeld nieuwe technologie ontwikkeld die speciaal is ontworpen om dit soort advertenties te identificeren – zelfs wanneer de advertenties zelf geen naaktheid bevatten – en gebruiken matchingtechnologie om ons te helpen namaakadvertenties sneller te vinden en te verwijderen. We hebben samengewerkt met externe experts en onze eigen specialistische teams om de lijst met veiligheidsgerelateerde termen, zinnen en emoji’s die onze systemen in deze advertenties detecteren, uit te breiden.”
Uit onze rapportages en tests van AI Forensics , een Europese non-profitorganisatie die onderzoek doet naar invloedrijke en ondoorzichtige algoritmen, blijkt over het algemeen dat content in Meta-advertenties minder effectief wordt gemodereerd dan content die gebruikers op de platforms van Meta plaatsen. AI Forensics ontdekte specifiek dat exact dezelfde afbeelding met naaktheid werd verwijderd als een normaal bericht op Facebook, maar wel werd toegestaan toen deze deel uitmaakte van een betaalde advertentie.
De berichtgeving van 404 Media heeft geleid tot enige druk vanuit het Congres . In het persbericht van Meta werd melding gemaakt van de invoering van de federale Take It Down Act van vorige maand, die platforms aansprakelijk stelt voor het hosten van dit soort content. Er werd echter gezegd dat dit niet de reden was om deze maatregelen nu te nemen.