De vervanging van systemisch, interpersoonlijk racisme door hard-coded, digitaal racisme is niet de behoefte aan hervormingspolitie.
Het is ongetwijfeld inspirerend dat de Black Lives Matter-beweging miljoenen Amerikanen heeft geïnspireerd om hun opvattingen over ras, politie, gerechtigheid en de ware aard van de geschiedenis in twijfel te trekken. Het vertegenwoordigt misschien wel de meest hoopvolle wereldwijde ontwikkeling in dit meest tumultueuze jaar. Bemoedigend is dat sommige steden en staten al stappen hebben ondernomen om hun politie-afdelingen te hervormen of helemaal te elimineren in een ongekend snelle vertaling van passie in actie. Ook dit heeft inspirerend gediend, maar om zowel politieke als logistieke redenen moet een nationale aanpak van politiehervorming nog plaatsvinden.
Politiezorg in Amerika is per definitie een staats- en lokale verantwoordelijkheid. Maar dit heeft de federale regering er niet van weerhouden om in te gaan op politiezaken of deze op significante manieren te financieren . Nieuwe hervormingen op het gebied van rechtshandhaving op nationaal niveau zullen voor de hand liggende uitdagingen opleveren, maar de grootste impact zouden ze hebben op het gebied van reguleringstechnologieën en instrumenten die de politie tot hun beschikking heeft. De politie is nog nooit zo machtig geweest op dit front, en bijzonder zorgwekkend is de beschikbaarheid van invasieve – en vaak slecht functionerende – gezichtsherkenningssoftware. Intelligente regulering van dergelijke tools moet het hoofd bieden aan enkele problematische mondiale ontwikkelingen met betrekking tot deze technologieën en, waar van toepassing, signalen afnemen van de industrie die verantwoordelijk is voor de productie ervan.
Wereldwijde trends
Wereldwijd lijken er twee trends te ontwikkelen met betrekking tot overheidsregulering en het gebruik van gezichtsherkenningssoftware. Hoewel beide teleurstellend zijn, onderstrepen ze elk de waarheid over de aard van deze tools waarmee ook eventuele betere alternatieven te kampen hebben.
Ten eerste is er de meer direct zorgwekkende benadering van gezichtsherkenning in de vorm van een vertrouwd Faustiaans koopje: de uitwisseling van privacy voor veiligheid. Deze aanpak omvat een volledige omarming van de mogelijkheden van gezichtsherkenning in naam van de nationale veiligheid, nu inclusief essentiële en uitgebreide COVID-19-contactopsporing. Hoewel eenvoudig, is deze grondgedachte voor gezichtsherkenning veel te gemakkelijk om uit te buiten. Er wordt bijvoorbeeld algemeen gerapporteerd en begrepen dat gezichtsherkenningssoftware onmisbaar is voor de voortdurende inspanningen van China om zich op Oeigoerse moslims te richten . Evenzo is het gebruik van gezichtsherkenning in India een vruchtbare voedingsbodem voor bezorgdheid over privacy en burgerlijke vrijheden die geen tekenen van medeplichtigheid vertonen.
De tweede benadering lijkt, bij gebrek aan een betere term, punting te zijn. Deze benadering werd het best belichaamd door het weglaten van enige zinvolle verwijzing naar gezichtsherkenning door de Commissie van de Europese Unie in haar nieuwste witboek over kunstmatige intelligentie. Dit zal zeker worden herinnerd als een moment dat de EU heeft gemist. Hoewel het nog steeds een alomvattende regionale benadering van het gebruik van dergelijke tools zou kunnen verwoorden, is het duidelijk dat het te veel gevraagd was om dit te doen in het tijdperk van het coronavirus.
Hoewel de EU een dergelijk besluit misschien in de toekomst heeft geschrapt, heeft de Amerikaanse federale regering het schijnbaar aan de lokale autoriteiten geschrapt. Wat is ontstaan in plaats van een coherente nationale strategie, is een lappendeken van staten en steden die bepaald gebruik van bepaalde instrumenten verbieden, evenals een zwerm andere rechtsgebieden die ze allemaal met enthousiasme gebruiken, ze volledig verbieden of geen softwarebeleid voor gezichtsherkenning hebben. alle.
Gelukkig hebben wereldwijde demonstraties tegen het overmatig gebruik van politiemacht voorlopig de verdere uitbreiding van deze instrumenten op afstand gehouden en op dit front is de meest zinvolle hervorming afkomstig van technologiebedrijven zelf. IBM schortte de ontwikkeling van gezichtsherkenningssoftware op, daarbij verwijzend naar de problematische implicaties van de politie. Evenzo heeft Amazon de verkoop van zijn gezichtsherkenningsplatform genaamd Rekognition aan wetshandhavingsinstanties voor een jaar opgeschort , met de redenering dat wetgevers die tijd nodig zouden hebben om gezichtsherkenningsprogramma’s op een eerlijke, transparante manier te reguleren. Microsoft en Google zijn ook naar voren gekomen om hun verzet aan te kondigen tegen het voorlopig verstrekken van gezichtsherkenningssoftware aan wetshandhavingsinstanties.
Bedrijfstak
Als IBM, Amazon, Microsoft en Google allemaal besluiten dat een branche het risico of het geld niet waard is, moeten wetgevers opletten. Dat gezegd hebbende, moeten bezorgde burgers er rekening mee houden dat de meeste van deze bemoedigende bedrijfsbeleid bedoeld zijn als tijdelijk, en zelfs degenen die niet als zodanig worden gefactureerd, kunnen zo snel veranderen als men een bestuursvergadering kan plannen. Even kritisch noemen deze bedrijven vooral het hypothetische, oneigenlijke gebruik van hun software in de handen van anderen als de belangrijkste reden achter hun huidige ongeschiktheid. Men moet moeilijker kijken of deze bedrijven geloven dat gezichtsherkenningstools op zichzelf problematisch zijn.
Als je dit onderscheid overslaat, mis je de hele noodzaak van overheidsmaatregelen en de grenzen van zelfregulering door bedrijven als nationale strategie. Hoewel niet vermeld in de officiële verklaringen van deze tech titans, wordt de volledige technische context waarom dergelijke tools in de handen van een gebruiker zorgen, netjes samengevat in rapporten zoals deze van MIT Media Lab en Microsoft Research in 2018, waarin specifieke manieren worden uiteengezet waarop gezichtsherkenning Programma’s identificeren routinematig niet-blanke gezichten, vooral die van niet-blanke vrouwen. Deze bevindingen tonen aan dat dergelijke technologieën, zelfs als ze vakkundig worden gebruikt, de politie niet slimmer, minder discriminerend of minder in staat zullen maken om inbreuk te maken op de vrijheden van mensen. De vervanging van systemisch, interpersoonlijk racisme door hard-coded, digitaal racisme is helemaal geen hervorming.
Mensen moeten weten welke tools momenteel worden gebruikt om hun gemeenschappen te bewaken. En ze zijn inderdaad in gebruik. In het najaar van 2016 publiceerde Georgetown Law’s Center on Privacy & Technology een studie waarin werd beweerd dat 50% van de Amerikaanse volwassenen al afbeeldingen van hun gezicht had vastgelegd in ten minste één politiedatabase. Bovendien kondigde het Department of Homeland Security nog in 2019 plannen aan om gezichtsherkenningssoftware te gebruiken om 97% van de luchtreizigers te volgen . Door een gebrek aan transparantie en verdere vertragingen in de zin van zinvolle regelgeving kunnen de programma’s die deze instrumenten ondersteunen, zichzelf alleen maar essentiëler maken voor de dagelijkse werkzaamheden van de rechtshandhaving.
De effecten van nationale incoherentie op deze kritieke kwestie zijn niet neutraal. Zelfopgelegde verboden, incongruente lokale beslissingen zonder duidelijke federale richtlijnen, en de gestage opmars van meer autoritair gebruik van dergelijke technologieën over de hele wereld zijn onvoldoende antwoorden op de vragen die dit moment van wereldwijde afrekening de politie en veiligheidsdiensten van de wereld oproept.