Kunstmatige intelligentie kan discrimineren en staten moeten mensen daartegen beschermen. Dat staat in een nieuwe resolutie van de VN-Mensenrechtenraad. De resolutie is vaag, maar geeft een signaal af aan veel regeringen die nieuwe AI-wetten schrijven.
AI – Wanneer zogenaamde kunstmatige intelligentie fouten maakt, kunnen onschuldige mensen in de gevangenis belanden. Zo werd in 2020 de Amerikaan Robert Williams gearresteerd, zo meldt de New York Times (NYT) . De politie was op zoek naar een winkeldief en een AI-systeem voor gezichtsherkenning zei dat Williams op de verdachte lijkt. “Nee, dat ben ik niet”, zei Williams toen de politie hem de foto liet zien van de man die hij zocht. ‘Denk je dat alle zwarte mannen er hetzelfde uitzien?’
Het voorbeeld toont de typische problemen van AI-systemen: ze kunnen mensen discrimineren die niet voldoende vertegenwoordigd waren in de trainingsgegevens, zoals zwarte mensen. En als mensen kritiekloos de beslissingen van een AI-systeem overnemen, kan dat snel fataal worden.
Een nieuwe resolutie van de VN-Mensenrechtenraad behandelt deze en andere gevallen. In de resolutie staat in het Engels: Kunstmatige intelligentie kan discrimineren, “onder andere op basis van ras , geslacht, leeftijd, handicap, nationaliteit, religie en taal”. Staten moeten mensen beschermen tegen schade en discriminatie veroorzaakt door AI-systemen. Ze moeten de gevolgen van AI inschatten en risico’s verkleinen. Op de Mensenrechtenraad van 14 juli waren de lidstaten het erover eens dat zulke zaken belangrijk zijn.
De definitieve tekst van de resolutie staat nog niet online, daarom koppelen we hier een versie van 12 juli . Dienovereenkomstig moeten trainingsgegevens voor AI-systemen “nauwkeurig, relevant en representatief” zijn. Ze moeten worden gecontroleerd op vervormingen (“bias”).
Wanneer mensen machines verkeerd gebruiken
Discriminatie kan niet alleen plaatsvinden wanneer mensen een AI-systeem ontwikkelen, maar ook wanneer ze het mogen gebruiken. Ook de Mensenrechtenraad waarschuwt hiervoor. Een vergelijking met de casus van Robert Williams maakt dit duidelijk. Uiteindelijk waren het mensen die het resultaat van het AI-systeem onvoldoende in twijfel trokken. Volgens de NYT arresteerden de politieagenten Williams, fotografeerden hem, sloten hem een nacht op en namen zijn vingerafdrukken.
Volgens de VN-Mensenrechtenraad lopen ook mensen die behoren tot “nationale”, “inheemse” of “taalkundige” minderheden bijzonder risico. De Raad schrijft over mensen op het “platteland”, over “economisch achtergestelde mensen” en over mensen in moeilijke omstandigheden. Ze lopen allemaal een groter risico dat hun rechten buitensporig worden geschonden door AI-systemen.
Als tegenmaatregel zouden staten moeten bevorderen dat AI-systemen transparant zijn. Dit betekent dat beslissingen op basis van AI verklaarbaar moeten zijn. Daarnaast zouden staten toezicht moeten houden op het gebruik van AI-systemen.
vrijheid van meningsuiting in gevaar
AI is een grove verzamelterm, de VN-resolutie noemt nauwelijks voorbeelden van specifieke systemen. De Mensenrechtenraad schrijft immers uitdrukkelijk over AI-systemen die bedoeld zijn om desinformatie en haatzaaiende taal aan banden te leggen , bijvoorbeeld in content moderatie.
Grote online diensten als Instagram, Facebook, TikTok en YouTube maken gebruik van dergelijke software. Het zou automatisch verdachte inhoud moeten detecteren. De stortvloed aan inhoud zou anders nauwelijks kunnen worden beheerd. Deze praktijk zal in de toekomst waarschijnlijk niet veranderen, integendeel.
De Duitse mediatoezichthouder gebruikt nu ook software om bijvoorbeeld haatspraak op te sporen. Volgens een VN-besluit zouden staten onderzoek op dit gebied moeten stimuleren en informatie over transparante oplossingen moeten uitwisselen. Bij het modereren van inhoud moeten mensenrechten zoals vrijheid van meningsuiting, meningsuiting en informatie worden beschermd.
De resolutie beschrijft de problemen van AI-systemen in detail. Maar er zijn geen specifieke verplichtingen voor staten in het besluit. De lidstaten “benadrukken” alleen het belang van de kwesties. De “noodzaak” om “speciale aandacht te besteden” aan de onderwerpen wordt benadrukt. Dat is het geluid van gezamenlijke resoluties op het internationale toneel: zacht en vrijblijvend.
De resolutie zet immers de grondrechtenproblematiek van AI-systemen wereldwijd op de agenda. In de VN-Mensenrechtenraad zijn 47 staten vertegenwoordigd , waaronder autoritaire regimes. Volgens het Franse persbureau AFP hebben Oostenrijk, Brazilië, Denemarken, Marokko, Singapore en Zuid-Korea de resolutie voorgesteld. Ondanks hun akkoord in de Raad, zeiden China en India dat ze het niet helemaal eens waren met de uitkomst.
De EU onderhandelt momenteel over haar AI-wet
Het Europees Parlement, de Raad van Ministers en de Europese Commissie onderhandelen momenteel over een AI-wet voor de EU . Het is bedoeld om de zogenaamde kunstmatige intelligentie alomvattend te reguleren. De wet is de eerste in zijn soort en zou internationale normen kunnen stellen.
Terwijl de EU in een trialoog achter gesloten deuren aan de definitieve tekst werkt, spannen burgerrechtenactivisten zich in voor de bescherming van de grondrechten. We berichtten hier over de grootste problemen in de AI-wet . Staten willen onder meer zelf gevaarlijke AI-systemen gebruiken voor ‘nationale veiligheid’. Dergelijke uitzonderingen kunnen gaten in de eigenlijk ambitieuze wet scheuren.
Ook een oproep van ngo’s als European Digital Rights, Algorithm Watch en Amnesty International gaat in op deze en andere problemen . Het is op 12 juli gepubliceerd en in totaal hebben 150 organisaties het ondertekend. Ze roepen de EU-instellingen op om “mensen en hun grondrechten op de eerste plaats te zetten in de AI-wetgeving”.
Vooral de hype rond de chatbot ChatGPT heeft AI onder de aandacht gebracht van een breder publiek en veel overheden. Ook de VS plannen nieuwe regelgeving . Op 17 juli meldde Reuters dat de EU in Azië aan het lobbyen was voor regels in de trant van de AI-wet . Zo zouden er gesprekken zijn geweest met vertegenwoordigers uit India, Japan, Zuid-Korea, Singapore en de Filipijnen. De reacties waren echter terughoudend; de regeringen wachten daarom liever af.