Voor het eerst heeft de Europese Commissie een wet gepresenteerd die geautomatiseerde besluitvormingssystemen reguleert. “Massa-surveillance” door AI moet worden verboden, maar biometrische real-time surveillance moet in sommige gevallen toegestaan blijven.
De Europese Commissie heeft een wetsvoorstel ingediend om geautomatiseerde besluitvormingssystemen te reguleren . Toepassingen met een hoog risico moeten worden goedgekeurd en de Commissie zou bepaalde vormen van dergelijke systemen volledig willen verbieden. Het voorstel besteedt bijzondere aandacht aan biometrische videobewaking op openbare plaatsen. Dit zou in principe verboden moeten worden vanwege de risico’s voor de bescherming van de grondrechten, maar het gebruik van dergelijke technologie blijft toegestaan in “enkele, eng gedefinieerde uitzonderlijke gevallen”.
Het nieuwe wetsvoorstel maakt deel uit van een pakket maatregelen dat bedoeld is om het veilige, ethische en grondrechtenconforme gebruik van zogenaamde kunstmatige intelligentie (AI) te waarborgen. De Europese Commissie begrijpt dat dit niet alleen software inhoudt die gebruikmaakt van machine learning en neurale netwerken, maar eigenlijk alle soorten algoritmische besluitvormings- en aanbevelingssystemen. Naast de nieuwe AI-wet stelt de commissie ook een machinerichtlijn voor die nieuwe veiligheidsregels voor robots, 3D-printers en andere apparaten moet creëren.
Het nieuwe wetgevingspakket werd woensdag in Brussel gepresenteerd door vicevoorzitter van de Commissie Margrethe Vestager en commissaris voor interne markt Thierry Breton. Het is de eerste wet in de Europese Unie die kunstmatige intelligentie reguleert, zei Vestager. “Hoe groter het risico dat AI voor ons leven betekent, hoe strenger de regels.”
De EU stelt een lijst op van systemen met een hoog risico
De kern van de voorgestelde wet inzake kunstmatige intelligentie is een lijst van toepassingen die in de toekomst als “hoog risico” zullen worden geclassificeerd en die nog moeten worden goedgekeurd. De Commissie noemt algoritmische systemen in medische apparatuur en zelfrijdende auto’s als voorbeelden.
Voor dergelijke aanvragen moeten aanbieders een risicobeoordeling en beschermingsmaatregelen indienen, evenals gedetailleerde documentatie van het systeem. Het gebruik van een “hoogwaardige dataset” is ook vereist voor risicovolle toepassingen om risico’s en discriminatie-effecten van de toepassing te vermijden. Bovendien moeten de activiteiten van de systemen worden geregistreerd om beslissingen begrijpelijk te maken voor menselijke controleorganen. Gebruikers moeten worden geïnformeerd over hoe het werkt.
Toepassingen die “onaanvaardbare risico’s” met zich meebrengen voor de veiligheid, de grondrechten of het levensonderhoud van mensen, moeten volledig worden verboden. In documenten van de Commissie worden toepassingen genoemd die de vrije wil van hun gebruikers manipuleren als voorbeeld. Dit omvat speelgoed dat taal gebruikt om kinderen aan te moedigen zich op een gevaarlijke manier te gedragen. Het gebruik van “sociale scoresystemen” door regeringen, aangezien deze volgens rapporten in China al op testbasis worden gebruikt, moet ook worden verboden.
De nieuwe regels classificeren biometrische systemen voor het identificeren van mensen als toepassingen met een hoog risico. Het real-time gebruik van dergelijke systemen op openbare plaatsen door wetshandhavingsinstanties, zoals getest op het treinstation Südkreuz in Berlijn, vormt een bijzonder grote bedreiging voor de grondrechten. “Er is geen plaats voor grootschalig toezicht in onze samenleving”, zei Vestager.
Daarom moet het gebruik van real-time detectie op openbare plaatsen worden beperkt tot een paar uitzonderingen. Als voorbeeld noemt de Commissie het gericht zoeken naar slachtoffers van misdrijven in databases om een dreigende terroristische aanslag af te weren of om vermoedelijke daders van ernstige misdrijven te vinden. Dat kan betekenen dat de biometrische videobewaking van alle treinstations en voetbalstadions alsnog gerechtvaardigd is.
Er moet een afgeslankte reeks voorschriften komen voor toepassingen die als laag risico worden geclassificeerd. Hierop zouden transparantieregels moeten gelden. Gebruikers zouden bijvoorbeeld geïnformeerd moeten worden wanneer ze te maken hebben met een chatbot. De overgrote meerderheid van de AI-systemen die tot nu toe in de EU worden gebruikt, vallen in deze categorie, zegt de Commissie.
De nieuwe regelgeving voor militaire toepassingen van kunstmatige intelligentie zou niet moeten gelden. Deze vielen niet onder de EU-internemarktregels, stelt de Commissie. De EU-staten zouden hun eigen regels kunnen opstellen in het kader van het gemeenschappelijk veiligheids- en defensiebeleid.
Nationale autoriteiten zouden regels moeten handhaven
De nieuwe regels moeten worden gehandhaafd door nationale autoriteiten in de EU-landen, waarbij de bestaande toezichtstructuren voor productveiligheid als model worden gebruikt. Nationale gegevensbeschermingsautoriteiten zullen waarschijnlijk ook een rol spelen bij het toezicht. In Duitsland zijn het Federale Netwerkagentschap, het Federale Bureau voor Informatiebeveiliging en de gegevensbeschermingsautoriteiten mogelijke kandidaten voor een rol bij het controleren van de regels. Op Europees niveau moet een Europees Comité voor kunstmatige intelligentie worden opgericht om de nationale autoriteiten met juridische adviezen te ondersteunen bij de uniforme handhaving van de regels.
Als de nieuwe wet wordt overtreden, zijn er zware straffen op handen. Producenten die een verboden AI-toepassing op de markt brengen of die regelgeving over het correct omgaan met data overtreden, krijgen bijvoorbeeld boetes van maximaal 30 miljoen euro of maximaal zes procent van hun wereldwijde jaaromzet. Dit betekent dat het maximale bedrag hoger is dan de vier procent die de Algemene Verordening Gegevensbescherming stelt.
Het wetgevingsvoorstel van de Commissie gaat nu naar de Raad van EU-staten en het EU-parlement. Kamerleden daar hebben de afgelopen maanden herhaaldelijk aangedrongen op strengere regels voor bepaalde AI-toepassingen, en het parlement zou de voorstellen weer kunnen aanscherpen. Een beslissing wordt pas volgend jaar verwacht.