Het “Nieuwe Migratiepact” dat onlangs door het Europees Parlement is aangenomen, breidt de surveillancetechnologieën en AI-toepassingen aan de buitengrenzen van de EU uit – en krijgt te maken met tegenwind.
Afgelopen woensdag heeft het Europees Parlement het nieuwe pact over migratie en asiel aangenomen . Dit is een hervormingspakket van acht wetten die onder meer moeten zorgen dat asielzoekers overal in de EU gelijk worden behandeld. Maar door het pakket breidt de EU ook de digitale surveillance en criminalisering van migranten uit.
Een alliantie van verschillende organisaties die pleiten voor gegevensbescherming en mensenrechten heeft kritiek geuit op de daarin besloten inhoud. Onder het motto #ProtectNotSurveil – bescherm, niet monitor – roept het de Europese Unie op om het gebruik van schadelijke surveillancetechnologieën tegen vluchtelingen te verbieden. Het land zet zich ook in voor het reguleren van het gebruik van zogenaamde kunstmatige intelligentie (AI) in de migratiecontext.
Onderdeel van de alliantie zijn AlgorithmWatch, Amnesty International, European Digital Rights (EDRi) en DigitalCourage. Privacy International (PI) sloot zich ook aan en publiceerde de gezamenlijke verklaring . Het beschrijft hoe de hervorming het mogelijk maakt – en soms zelfs vereist – om migranten te monitoren.
Veel kritiek op het migratiepact
#ProtectNotSurveil bekritiseert het feit dat het migratiepact mensen onder algemene verdenking op de vlucht zet en hen uitgebreid in de gaten houdt. Met name de Eurodac-verordening schrijft voor dat biometrische gegevens tien jaar moeten worden verzameld en bewaard. De inhoud van de enorme databases kan tussen verschillende politie-autoriteiten worden uitgewisseld. Ook mogen gegevens van kinderen worden verzameld – volgens de nieuwe wet vanaf 6 jaar in plaats van 14 jaar – en desnoods zelfs onder dwang.
Als onderdeel van de screeningsverordening zullen er in de toekomst uitgebreide controles worden uitgevoerd op alle mensen die het land illegaal binnenkomen. De controles, waarbij identiteits-, biometrische gegevens en gezondheidsgegevens worden verzameld, kunnen tot zeven dagen duren.
Nieuwe grenscontroleprocedures zouden ertoe leiden dat meer mensen in gevangenisachtige faciliteiten worden vastgehouden. #ProtectNotSurveil vreest voor centra in Griekse stijl – met intensief biometrisch toezicht en alomtegenwoordige camera’s en bewegingsdetectoren.
De hervorming van de Schengengrenscode, die nog moet worden aangenomen, is bedoeld om algemene politiecontroles in de toekomst te vergemakkelijken. De alliantie bekritiseert het bevorderen van het gebruik van surveillancetechnologieën – zowel binnen de EU als aan de buitengrenzen.
Voorafgaand aan het besluit hadden ruim vijftig non-profitorganisaties een open brief naar de Europese Commissie gestuurd . Ze waren bang dat het migratiepact zou leiden tot een duur, slecht functionerend en inhumaan systeem.
Gebruik van AI bij migratie
Het migratiepact is gebaseerd op bestaande Europese wetten zoals de AI-verordening. Dit werd ook bekritiseerd door #ProtectNotSurveil. De coalitie riep op om AI-praktijken op het gebied van migratie te reguleren om mensen aan de buitengrenzen van de EU te beschermen. Ze wilde ook praktijken verbieden die inbreuk maken op de fundamentele rechten van migranten.
Op 13 maart werd de AI-verordening aangenomen . Veel opmerkingen van gegevensbeschermingsfunctionarissen bleven echter ongehoord. In een analyse leggen EDRi en andere organisaties uit hoe de definitieve wet zich verhoudt tot de eisen. #ProtectNotSurveil maakt zich nu zorgen over het toegenomen gebruik van invasieve technologieën – zoals geautomatiseerde profilering, dialectherkenningssystemen en pseudowetenschappelijke technologieën zoals leugendetectoren.
Recht op asiel wereldwijd onder druk door digitale technologie
De Verenigde Staten, het Verenigd Koninkrijk en de Europese Unie passen allerlei vormen van digitale technologie toe in asiel- en migratiesystemen. Ze gebruiken datasoftware, algoritmes, biometrie en drones aan de grenzen. Dit vergroot de kans op discriminatie, racisme en disproportionele en onwettige surveillance. Dat stelt Amnesty International in een vandaag verschenen rapport.
Het rapport Defending the Rights of refugees and Migrants in the Digital Age belicht enkele van de belangrijkste digitale technologische ontwikkelingen in asiel- en migratiemanagementsystemen en de mensenrechtenkwesties die hieruit voortkomen. Het gaat hierbij vooral om systemen die grote hoeveelheden gegevens verwerken.
‘Het rapport focust op de belangrijkste ontwikkelingen op het gebied van digitale alternatieven voor detentie, waaronder technologieën voor het “uitbesteden” van grensbewaking aan derde landen, datasoftware, biometrie en algoritmische besluitvormingssystemen’, zegt Matt Mahmoudi van Amnesty International.
‘De verspreiding van deze technologieën vergroot de kans op discriminatie, racisme en disproportionele en onwettige surveillance.’ Staten zetten deze technologieën op zo’n manier in dat de mensenrechten van vluchtelingen en migranten erdoor geschonden worden.
Hoe digitale technologie wordt gebruikt
Amnesty’s rapport beschrijft hoe overheden wereldwijd bepaalde technologieën gebruiken voor asiel- en migratiemanagement. Grensautoriteiten in de Verenigde Staten zetten het Intensive Supervision Appearance Program (ISAP) en het Electronic Monitoring Device Program in om migranten en asielzoekers die uit detentie zijn vrijgelaten, te observeren.
Deze technologieën leiden echter tot mensenrechtenschendingen. Het rapport gaat ook in op de “slimme” surveillance-infrastructuur van de Amerikaanse overheid, zoals AI-gestuurde wachttorens langs de grens tussen de VS en Mexico. Daardoor neemt het risico op het profileren van zwarte, Latijns-Amerikaanse en andere geracialiseerde gemeenschappen toe.
Het Verenigd Koninkrijk gebruikt verplichte elektronische enkelbanden. Hiermee worden alle buitenlanders die gedeporteerd dreigen te worden gevolgd. Er is een voorstel voor gezichtsherkenning met behulp van smartwatches.
Drones en leugendetectors
De EU surveilleert met onder meer drones boven de Middellandse Zee om vluchtelingen- en migrantenboten op te sporen. In samenwerking met de Libische autoriteiten probeert de EU zo te voorkomen dat ze de Europese kusten bereiken.
In Hongarije, Griekenland en Letland werd een door de EU gefinancierd geautomatiseerd grensbewakingssysteem getest. Het project maakte gebruik van een AI-“leugendetectiesysteem” om mensen te ondervragen die de grens willen oversteken. Het systeem analyseert de kleinste details van gelaatsuitdrukkingen met behulp van gezichts- en emotieherkenningstechnologieën. Mensen die volgens het systeem de vragen eerlijk beantwoorden krijgen een code waarmee ze de grens over kunnen.
Daarnaast toont ons rapport aan hoe Oostenrijk, België, Denemarken, Duitsland, Noorwegen en het Verenigd Koninkrijk steeds meer wetten invoeren die het mogelijk maken om telefoons van asielzoekers in beslag te nemen. Zo kan gecheckt worden of wat mensen tijdens hun asielprocedure vertellen, overeenkomt met de mobiele telefoongegevens. Als dit tot onduidelijkheden leidt, kan dat gevolgen hebben voor hun asielaanvraag.
Vluchtelingen, migranten en asielzoekers gediscrimineerd
Al deze technologieën dragen bij aan uitsluiting en verhinderen de bewegingsvrijheid van zwarte, islamitische en andere gediscrimineerde migranten, asielzoekers en vluchtelingen. Ze zorgen voor grensbewakingssystemen die discrimineren op basis van ras, etniciteit, nationaliteit en burgerlijke staat.
De EU heeft bijvoorbeeld met behulp van een reeks technologieën haar grenzen virtueel uitgebreid naar het Middellandse Zeegebied en doorreisgebieden in Afrika, waardoor iedere beweging kan worden gevolgd.
‘Racisme zit diep ingebakken in migratie- en asielmanagementsystemen’, zegt Charlotte Phillips van Amnesty International. ‘Deze technologieën zijn deels gebaseerd op vooroordelen, waardoor het recht op non-discriminatie en andere mensenrechten in het geding komen.’
Visie Amnesty
Staten moeten geen technologieën gebruiken die in strijd zijn met de mensenrechten. Er moet een verbod komen op AI-systemen die menselijke emoties herkennen net als op geautomatiseerde systemen op het gebied van risicobeheersing en profileren. Hetzelfde geldt voor voorspellende technologieën die een onrechtmatige bedreiging vormen voor het recht op asiel.