De stemming over de AI Act werd met een overweldigende meerderheid aangenomen, maar de definitieve versie zal er waarschijnlijk een beetje anders uitzien
Het was een grote week op het gebied van het technologiebeleid in Europa, toen het Europees Parlement zijn ontwerpregels voor de AI-wet goedkeurde op dezelfde dag dat EU-wetgevers een nieuwe antitrustzaak tegen Google hadden aangespannen .
De stemming over de AI-wet werd met een overweldigende meerderheid aangenomen en wordt aangekondigd als een van ’s werelds belangrijkste ontwikkelingen op het gebied van AI-regulering. De voorzitter van het Europees Parlement, Roberta Metsola, beschreef het als “wetgeving die ongetwijfeld de komende jaren de mondiale norm zal bepalen.”
Houd echter uw adem niet in voor onmiddellijke duidelijkheid. Het Europese systeem is een beetje ingewikkeld. Vervolgens zullen leden van het Europees Parlement de details moeten bespreken met de Raad van de Europese Unie en de uitvoerende macht van de EU, de Europese Commissie, voordat de ontwerpregels wetgeving worden. De uiteindelijke wetgeving zal een compromis zijn tussen drie verschillende ontwerpen van de drie instellingen, die sterk van elkaar verschillen. Het zal waarschijnlijk ongeveer twee jaar duren voordat de wetten daadwerkelijk worden geïmplementeerd.
Wat de stemming van woensdag tot stand bracht, was de goedkeuring van het standpunt van het Europees Parlement in de komende slotonderhandelingen. De AI-wet is op dezelfde manier gestructureerd als de Digital Services Act van de EU, een juridisch raamwerk voor onlineplatforms, en hanteert een “risicogebaseerde aanpak” door beperkingen in te voeren op basis van hoe gevaarlijk wetgevers voorspellen dat een AI-toepassing zou kunnen zijn. Bedrijven zullen ook hun eigen risicobeoordelingen over hun gebruik van AI moeten indienen.
Sommige toepassingen van AI zullen volledig worden verboden als wetgevers het risico ‘onaanvaardbaar’ vinden, terwijl technologieën die als ‘hoog risico’ worden beschouwd nieuwe beperkingen zullen hebben op het gebruik ervan en eisen op het gebied van transparantie.
Hier zijn enkele van de belangrijkste implicaties:
- Verbod op AI voor emotieherkenning. De ontwerptekst van het Europees Parlement verbiedt het gebruik van AI die probeert de emoties van mensen te herkennen bij politie, scholen en werkplekken. Makers van emotieherkenningssoftware beweren dat AI kan bepalen wanneer een leerling bepaalde stof niet begrijpt, of wanneer een bestuurder van een auto in slaap valt. Het gebruik van AI om gezichtsdetectie en -analyse uit te voeren is bekritiseerd vanwege onnauwkeurigheid en vooringenomenheid , maar het is niet verboden in de ontwerptekst van de andere twee instellingen, wat erop wijst dat er een politiek gevecht op komst is.
- Verbod op realtime biometrie en voorspellend politiewerk in de openbare ruimte. Dit zal een grote wetgevende strijd worden , omdat de verschillende EU-organen zullen moeten uitzoeken of, en hoe, het verbod in de wet wordt gehandhaafd. Politiegroepen zijn geen voorstander van een verbod op real-time biometrische technologieën, die volgens hen noodzakelijk zijn voor het moderne politiewerk. Sommige landen, zoals Frankrijk, zijn zelfs van plan hun gebruik van gezichtsherkenning uit te breiden .
- Verbod op sociale scores. Sociale scores door overheidsinstanties, of de praktijk van het gebruik van gegevens over het sociale gedrag van mensen om generalisaties en profielen te maken, zouden verboden worden. Dat gezegd hebbende, is de kijk op sociale scores, die doorgaans worden geassocieerd met China en andere autoritaire regeringen, niet zo eenvoudig als het lijkt . De praktijk van het gebruik van gegevens over sociaal gedrag om mensen te evalueren is gebruikelijk bij het verstrekken van hypotheken en het vaststellen van verzekeringstarieven, maar ook bij het aannemen en adverteren.
- Nieuwe beperkingen voor generatie AI. Dit ontwerp is het eerste dat manieren voorstelt om generatieve AI te reguleren en het gebruik van auteursrechtelijk beschermd materiaal in de trainingsset van grote taalmodellen zoals GPT-4 van OpenAI te verbieden. OpenAI is al onder de loep genomen door Europese wetgevers vanwege zorgen over gegevensprivacy en auteursrecht. Het wetsontwerp vereist ook dat door AI gegenereerde inhoud als zodanig wordt gelabeld. Dat gezegd zijnde moet het Europees Parlement nu zijn beleid verkopen aan de Europese Commissie en individuele landen, die waarschijnlijk te maken zullen krijgen met lobbydruk van de technologie-industrie.
- Nieuwe beperkingen op aanbevelingsalgoritmen op sociale media. Het nieuwe ontwerp wijst aanbevelingssystemen toe aan de categorie ‘hoog risico’ , wat een escalatie is ten opzichte van de andere voorgestelde wetsvoorstellen. Dit betekent dat als het voorstel wordt aangenomen, aanbevelingssystemen op sociale-mediaplatforms aan veel meer toezicht zullen worden onderworpen op de manier waarop ze werken, en dat technologiebedrijven meer aansprakelijk kunnen zijn voor de impact van door gebruikers gegenereerde inhoud.
De risico’s van AI, zoals beschreven door Margrethe Vestager, uitvoerend vicevoorzitter van de Europese Commissie, zijn wijdverbreid. Ze heeft de nadruk gelegd op zorgen over de toekomst van het vertrouwen in informatie, de kwetsbaarheid voor sociale manipulatie door slechte actoren en massale surveillance.
“Als we in een situatie terechtkomen waarin we niets geloven, dan hebben we onze samenleving volledig ondermijnd”, zei Vestager woensdag tegen verslaggevers .
Wat ik deze week lees
- Een Russische soldaat gaf zich over aan een Oekraïense aanvalsdrone, zo blijkt uit videobeelden gepubliceerd door de Wall Street Journal . De overgave vond in mei plaats in de oostelijke stad Bakhmut, Oekraïne. De drone-operator besloot volgens het internationaal recht het leven van de soldaat te sparen toen hij zijn pleidooi via video zag. Drones zijn van cruciaal belang geweest in de oorlog en de overgave is een fascinerende kijk op de toekomst van oorlogvoering.
- Veel redditors protesteren tegen wijzigingen in de API van de site die de functionaliteit van apps en tools van derden die veel gemeenschappen gebruiken, zouden elimineren of verminderen. Uit protest zijn deze gemeenschappen ‘privé gegaan’, wat betekent dat de pagina’s niet langer openbaar toegankelijk zijn. Reddit staat bekend om de kracht die het geeft aan zijn gebruikersbestand, maar volgens de scherpe inschatting van Casey Newton heeft het bedrijf daar nu misschien spijt van .
- Contractarbeiders die het grote taalmodel van Google, Bard, hebben getraind, zeggen dat ze zijn ontslagen nadat ze bij de AI zelf hun zorgen hadden geuit over hun arbeidsomstandigheden en veiligheidsproblemen . De aannemers zeggen dat ze gedwongen waren om onredelijke deadlines te halen, wat leidde tot zorgen over de nauwkeurigheid. Google zegt dat de verantwoordelijkheid bij Appen ligt, het contractbureau dat de werknemers in dienst heeft. Als de geschiedenis ons iets leert, zal er sprake zijn van menselijke kosten in de race om generatieve AI te domineren.
Wat ik deze week heb geleerd
Deze week bracht Human Rights Watch een diepgaand rapport uit over een algoritme dat wordt gebruikt om sociale uitkeringen in Jordanië uit te delen. Het bureau ontdekte een aantal grote problemen met het algoritme, dat werd gefinancierd door de Wereldbank, en zegt dat het systeem gebaseerd was op onjuiste en te vereenvoudigde aannames over armoede. De auteurs van het rapport wezen ook op het gebrek aan transparantie en waarschuwden tegen soortgelijke projecten van de Wereldbank. Ik schreef een kort verhaal over de bevindingen .
Ondertussen groeit de trend naar het gebruik van algoritmen in overheidsdiensten. Elizabeth Renieris, auteur van Beyond Data: Reclaiming Human Rights at the Dawn of the Metaverse , schreef mij over het rapport en benadrukte de impact die dit soort systemen in de toekomst zullen hebben: “Nu het proces om toegang te krijgen tot voordelen standaard digitaal wordt, Het is zelfs nog minder waarschijnlijk dat deze voordelen degenen bereiken die ze het meest nodig hebben, waardoor de digitale kloof alleen maar groter wordt. Dit is een goed voorbeeld van hoe uitgebreide automatisering een directe en negatieve invloed op mensen kan hebben, en het is het gesprek over AI-risico’s waar we ons nu op moeten concentreren.”