Zullen de trialoogpartijen morgen overeenstemming kunnen bereiken over het gekibbel over de AI-regelgeving? De druk is groot – en zou er met name voor kunnen zorgen dat het EU-Parlement zijn rode lijnen verlegt.
AI – De kans dat de trialoogonderhandelingen woensdag worden afgerond ligt rond de 50 procent. Dit zei de hoofdonderhandelaar van het Europees Parlement , Dragos Tudorache, vorige week tegen journalisten in Brussel.
Dit is een verbazingwekkend cijfer als je bedenkt dat de AI-regelgeving al meer dan een jaar in de maak is. Maar Parlement, Raad en Commissie discussiëren nog steeds over grote bouwplaatsen: hoe om te gaan met zogenaamde basismodellen als ChatGPT, biometrische surveillancesystemen en de classificatie van risicovolle toepassingen.
Ook Europarlementariër Axel Voss (EVP) is sceptisch over het feit dat er morgen een akkoord wordt bereikt. “Het zullen moeilijke onderhandelingen worden”, vertelde Voss aan netzpolitik.org. “De moeilijkste punten blijven onder meer de regulering van de basismodellen en de rechtshandhaving.”
Als de onderhandelingen daadwerkelijk mislukken, kan het momenteel belangrijkste wetgevingsvoorstel van de EU op zijn minst aanzienlijke vertraging oplopen. De AI-verordening is bedoeld als de eerste wet ter wereld die de zogenaamde kunstmatige intelligentie integraal reguleert.
Lobbystrijd over de regulering van basismodellen
Dat het besluit op de rand staat, is momenteel vooral te danken aan de regeringen in Frankrijk, Duitsland en Italië. Twee weken geleden sprak u zich uit tegen het uitvaardigen van wettelijke voorschriften voor zogenaamde basismodellen. In plaats daarvan pleiten zij voor ‘verplichte zelfregulering door middel van een gedragscode’.
De regeringen van de drie grootste EU-landen zeggen ervoor te willen zorgen dat de regulering van de basismodellen Europese bedrijven geen concurrentienadeel oplevert. Basismodellen zijn AI-systemen die voor verschillende doeleinden kunnen worden gebruikt. ChatGPT is momenteel bijvoorbeeld gebaseerd op een taalbasismodel genaamd GPT-4. Dergelijke modellen en de daaraan verbonden risico’s liggen al ongeveer een jaar op ieders lippen.
Aan het position paper ging een enorme lobbystrijd vooraf. Met name de Duitse start-up Aleph Alpha en het Franse bedrijf Mistral hebben de afgelopen maanden enorme druk uitgeoefend op hun overheden. Cédric O, hoofdlobbyist van Mistral, beweerde onlangs dat de regelgeving het bedrijf zou kunnen ‘doden’ .
Zelfs Thierry Breton ergert zich
Cédric O had ook het initiatief genomen tot een open brief waarin managers van grote Europese bedrijven waarschuwden dat “het wetsontwerp het concurrentievermogen en de technologische soevereiniteit van Europa in gevaar brengt”. De brief werd onder meer ondertekend door de directeuren van Deutsche Telekom en de Holtzbrinck Publishing Group, evenals Merck, TUI, Renault en Danone.
Thierry Breton ergert zich nu duidelijk aan de enorme lobbydruk. De EU-commissaris voor de Interne Markt staat feitelijk bekend om zijn industrievriendelijke standpunten. Maar nu lijkt zelfs voor hem de maat vol.
Grote technologiebedrijven en startups als Mistral verdedigen het publieke belang niet, zei Breton bijna twee weken geleden. Zorg voor het algemeen belang moet prioriteit krijgen in de AI-regelgeving. “Ik luister liever naar degenen die het algemeen belang vertegenwoordigen dan naar degenen die individuele belangen vertegenwoordigen.”
Kritiek vanuit de wetenschap en het maatschappelijk middenveld
Talrijke wetenschappers en maatschappelijke organisaties hebben de afgelopen weken ook massale kritiek geuit op het standpunt van de Franse, Duitse en Italiaanse regeringen.
In een open brief raden vooraanstaande AI-onderzoekers en ondernemers “sterk af om voor basismodellen uitsluitend te vertrouwen op een systeem van zelfregulering.” Bindende regels zijn “belangrijk om zowel economische als veiligheidsredenen”. In een andere brief eisen deskundigen dat “bedrijven niet hun eigen regels mogen maken”. De AI-verordening is “meer dan alleen een wet”, namelijk “een statement over welke waarden wij als Europeanen willen bevorderen en welk type samenleving we willen opbouwen.”
Ook de federale en nationale gegevensbeschermingsconferentie (DSK) is uiterst sceptisch over de vraag of zelfregulering zonder sancties voldoende is. Alleen met een “gepaste toewijzing van verantwoordelijkheden langs de gehele AI-waardeketen” kunnen grondrechten effectief worden beschermd, aldus de DSK.
Hoe nieuwe uitzonderingen de positie van het parlement zouden kunnen verwateren
Momenteel staat het dispuut over de invloedrijke basismodellen centraal. Maar er zijn ook andere kwesties die nog moeten worden opgehelderd, zoals biometrische monitoring . Hiermee kunnen mensen worden geïdentificeerd en massaal worden gemonitord, indien nodig in realtime. De technologie bedreigt daarmee onder meer de privacy en de vrijheid van vergadering.
Voorafgaand aan de bijeenkomst van morgen heeft het Spaanse voorzitterschap volgens Euractiv een compromis aan de trialoogpartners gepresenteerd . Dienovereenkomstig mag het realtime gebruik van biometrische surveillance niet worden verboden, zoals het EU-Parlement had geëist, maar alleen als ‘hoog risico’ worden geclassificeerd. In ruil daarvoor mag dit alleen in uitzonderlijke gevallen en onder strikte veiligheidsmaatregelen plaatsvinden. Het voorzitterschap van de Raad wil ook retrospectieve videobewaking als een hoog risico beschouwen.
Het voorstel van het voorzitterschap van de Raad voorziet in verdere uitzonderingen voor voorspellend politiewerk, AI voor emotieherkenning en biometrische categorisatiesystemen. Als ze risicovolle systemen gebruiken, moeten de politieautoriteiten ze registreren in een EU-database, zoals vereist door het EU-Parlement, maar alleen in een gebied dat niet publiekelijk zichtbaar is. En in de regel hoeven ze de getroffenen niet te informeren over hun gebruik. Bovendien moeten er uitgebreide uitzonderingen komen op het gebruik van AI voor ‘nationale veiligheid’ – vooral op verzoek van de Franse regering.
Dit betekent echter dat de verbeteringen waartoe het Parlement afgelopen juni heeft besloten, het gevaar lopen te worden afgezwakt of zelfs teniet te worden gedaan. De AI-verordening zou zo de weg kunnen vrijmaken voor biometrisch massatoezicht door de staat in de EU-staten en aan de Europese buitengrenzen zonder dat de getroffenen zich daar effectief tegen kunnen verdedigen.
Falen zou nog steeds “onverantwoordelijk” zijn
Om deze reden waarschuwt een alliantie van 16 niet-gouvernementele organisaties rond EDRi dringend dat AI-systemen steeds vaker worden gebruikt voor staatstoezicht in Europa. De alliantie roept de Raad op om het gebruik van AI effectief te reguleren, vooral op het gebied van wetshandhaving, migratiecontrole en nationale veiligheidsautoriteiten.
Ondanks de dreiging van verwatering wil Kilian Vieth-Ditlmann van de ngo AlgorithmWatch niet dat het triloogakkoord woensdag mislukt. “Een succesvolle afronding hangt momenteel aan een zijden draadje. En als er geen werkbaar compromis wordt bereikt, komt de adoptie van de gehele AI-regelgeving in gevaar”, aldus Vieth-Ditlmann. “Maar het zou onverantwoord zijn om het wetgevingsproces nu te laten mislukken.”
Om dit te voorkomen zouden de trialoogpartners controversiële kwesties zoals de basismodellen of biometrische videobewaking tijdelijk kunnen uitsluiten van een overeenkomst. De Belgische regering, die in januari het voorzitterschap van de Raad van Spanje zal overnemen, zou dan vóór de EU-verkiezingen van volgend jaar juni een akkoord moeten bereiken over de openstaande kwesties – en daarom onder voortdurend hoge druk staan.
Als er op 6 december of tijdens het Belgische voorzitterschap van de Raad geen akkoord wordt bereikt, zou de AI-verordening na de EU-verkiezingen hoogstwaarschijnlijk weer op de agenda staan. Anders dan in de Duitse Bondsdag hoeven wetgevingsvoorstellen in de EU na de verkiezingen niet vanaf het begin opnieuw te worden onderhandeld. Als het machtsevenwicht in het Parlement niet significant verandert, zouden de trialoogonderhandelingen op hetzelfde punt zelfs de draad weer kunnen oppakken.