Vorige week gebruikte de Metropolitan Police in Zuid-Londen live gezichtsherkenningscamera’s om te helpen bij de arrestatie van 17 personen.
De arrestaties vonden plaats tijdens specifieke operaties die op 19 en 21 maart in Croydon en 21 maart in Tooting werden uitgevoerd.
Onder de arrestanten bevond zich een 23-jarige man die betrapt werd op het bezit van twee rondes losse munitie. Dit bracht de politie ertoe munitie, gestolen mobiele telefoons en cannabis in beslag te nemen uit eigendommen die verband hielden met die persoon. Het gezichtsherkenningssysteem was op hem gericht vanwege een uitstaand arrestatiebevel tegen hem.
Momenteel is de technologie ontworpen om personen te identificeren die voorkomen op een ‘op maat gemaakte volglijst’, waarop personen staan met uitstaande arrestatiebevelen. De Metropolitan Police zegt dat deze technologie hen in staat stelt ‘precisiepolitie’ uit te voeren.
Dit volgt op een eerder aantal van 42 arrestaties die in februari met dezelfde technologie zijn verricht, hoewel het onduidelijk blijft hoeveel van de gearresteerden zijn aangeklaagd, zo blijkt uit onderzoek van BBC News .
De arrestaties hadden betrekking op een breed spectrum van misdrijven, waaronder zedendelicten, aanranding, diefstal, fraude, inbraak, racistische intimidatie en schending van antisociaal gedragsbevelen (ASBO’s).
Na de operatie zei de politie dat ze de gemeenschappen “informatie en geruststelling” boden over hun daden.
🧵| Live Facial Recognition tech is a precise community crime fighting tool. Led by intelligence, we place our effort where it is likely to have the greatest effect. pic.twitter.com/N5bKwzAEI1
— Metropolitan Police (@metpoliceuk) April 5, 2023
Gezichtsherkenning bij de politie is controversieel
Vorig jaar wilden leden van het Britse House of Lords en Commons dat de politie de live gezichtsherkenningstechnologie opnieuw zou evalueren nadat de minister van politie had laten doorschemeren dat politiediensten toegang zouden krijgen tot een database met 45 miljoen paspoortafbeeldingen.
Michael Birtwistle van het Ada Lovelace Institute was het eens met hun scepsis: “De nauwkeurigheid en wetenschappelijke basis van gezichtsherkenningstechnologieën zijn zeer omstreden en hun wettigheid is onzeker.”
Burgerrechtenorganisatie Big Brother Watch benadrukte ook dat 89% van de gezichtsherkenningswaarschuwingen van de Britse politie mislukken.
Lindsey Chiswick, de inlichtingendirecteur van de Metropolitan Police, probeerde privacyproblemen weg te nemen. Ze zei tegen de BBC: “We bewaren uw gegevens niet. Als er geen match is, worden uw gegevens onmiddellijk en automatisch binnen enkele seconden verwijderd.” Chiswick beweerde ook dat de technologie “onafhankelijk getest” is op betrouwbaarheid en vooringenomenheid.
Anderen betwisten dat. Madeleine Stone van Big Brother Watch uitte bijvoorbeeld haar zorgen over AI-surveillance en noemde het ‘Orwelliaans’.
Stone vervolgde: ‘Iedereen wil gevaarlijke criminelen van de straat, maar het dichten van de scheuren van een krakend politiesysteem met opdringerige en Orwelliaanse surveillancetechnologie is niet de oplossing. In plaats van mensen actief te achtervolgen die een risico vormen voor de bevolking, vertrouwen politieagenten op het toeval en hopen ze dat gewenste mensen toevallig voor een politiecamera lopen.”
🚨Live facial recognition alert🚨
Police are scanning the faces of a huge number of people in #Catford using invasive & flawed facial recognition technology.
There is no place for this Orwellian tech in British policing. #StopFacialRecognition pic.twitter.com/JTcLYRoW7G
— Big Brother Watch (@BigBrotherWatch) March 26, 2024
Big Brother Watch sloeg ook alarm over een nieuwe operatie in Catford die gisteren (26/03) plaatsvond.
Hoe de Britse politie AI-gezichtsherkenning gebruikt
De Britse politie begon in 2018 met het testen van gezichtsherkenningstechnologieën en zette met camera’s uitgeruste busjes in om beelden van openbare plaatsen vast te leggen.
In een recent verzoek om vrijheid van informatie, gericht aan de Metropolitan Police Service (MPS), werd gezocht naar opheldering over de vraag of AI wordt gebruikt om personen automatisch te screenen en hoe die gegevens worden verwerkt.
De MPS maakt gebruik van AI-technologieën zoals Live Facial Recognition (LFR) en Retrospective Facial Recognition (RFR) binnen specifieke operaties.
Het MPS weigerde echter te reageren op het grootste deel van het onderzoek, daarbij verwijzend naar vrijstellingen onder de Freedom of Information Act 2000 met betrekking tot ‘nationale veiligheid’, ‘wetshandhaving’ en ‘de bescherming van veiligheidsinstanties’.
Concreet betoogde het MPS dat het openbaar maken van details over het heimelijke gebruik van gezichtsherkenning de tactieken van de wetshandhaving in gevaar zou kunnen brengen.
Het antwoord van de politie luidt: “Bevestigt of ontkent dat alle informatie met betrekking tot een mogelijke geheime praktijk van gezichtsherkenning criminelen zou laten zien wat de capaciteit, tactische capaciteiten en mogelijkheden van de MPS zijn, waardoor ze zich kunnen richten op specifieke gebieden van Groot-Brittannië om gedragingen uit te voeren. hun criminele/terroristische activiteiten ondernemen.”
Lessen uit het verleden
Hoewel voorspellend politiewerk is ontworpen om gemeenschappen veiliger te maken, heeft het tot enkele verontrustende resultaten geleid, waaronder de onrechtmatige arrestatie van verschillende personen.
Dit zijn niet slechts geïsoleerde incidenten, maar eerder een patroon dat een kritieke tekortkoming aan het licht brengt in het te sterk afhankelijk zijn van AI voor politiewerk.
Robert McDaniel in Chicago werd, ondanks dat hij geen gewelddadige geschiedenis had, door de politie als een potentiële bedreiging bestempeld, simpelweg omdat een algoritme hem op een lijst plaatste.
Zijn verhaal is niet uniek. In de VS zijn er gevallen geweest waarin mensen ten onrechte werden beschuldigd en gearresteerd op basis van gebrekkige gezichtsherkenningsmatches.
Het verhaal van Nijeer Parks is daar een sprekend voorbeeld van. Beschuldigd van misdaden waar hij niets mee te maken had, riskeerde Parks gevangenisstraf en een flinke juridische rekening – allemaal vanwege een onjuiste match door gezichtsherkenningstechnologie.
Gezichtsherkenningstechnologie is aan het licht gebracht als onnauwkeurig voor mensen met een donkere huidskleur, met name zwarte vrouwen. Hoewel gezichtsherkenning voor witte gezichten in meer dan 90% van de gevallen accuraat kan zijn, kan deze voor zwarte gezichten slechts 35% bedragen .
Op basis van het huidige bewijsmateriaal zullen gemarginaliseerde groepen het meeste verliezen door onnauwkeurige algoritmische politiestrategieën.
Onterechte arrestaties zijn niet alleen verontrustend voor de direct betrokkenen; ze werpen ook een lange schaduw over de getroffen gemeenschappen.
Wanneer mensen worden gearresteerd op basis van voorspellingen in plaats van concrete acties, doet dit het vertrouwen tussen de wetshandhavers en het publiek wankelen.
Het vertrouwen van het publiek in de politie bevindt zich zowel in Groot-Brittannië als in de VS op een dieptepunt. AI dreigt dit verder uit te hollen als het slecht wordt beheerd.