Kunstmatige intelligentie AI is overweldigend en bedreigt de hele mensheid, volgens de dringende waarschuwing van veel technologiebedrijven. In feite is deze mythe bedoeld om commercieel toezicht te stimuleren, regulering te dwarsbomen en de uitbuiting van werknemers te verdoezelen.
AI is een marketingterm die begin 2010 nieuw leven werd ingeblazen, voornamelijk door de grote technologiebedrijven. De term is een van de vele die kunnen worden gekozen om gegevens en computationele statistische modellen te beschrijven. Het komt uit een mengelmoes van academische termen, variërend van cybernetica tot automaattheorie en informatieverwerking tot machine learning.
Deze benamingen zijn de afgelopen 75 jaar toegepast op een heterogeen continuüm van militair onderzoek en ontwikkeling. Ze worden allemaal gedreven door het verlangen naar computationele controle en geautomatiseerde besluitvorming.
De term ‘kunstmatige intelligentie’ werd in de jaren vijftig bedacht door cognitief en computerwetenschapper John McCarthy. McCarthy deed dit niet om de eigenschappen te beschrijven van de systemen die hij om hem heen bouwde of observeerde, maar om veel meer alledaagse redenen. In een interview gaf hij toe dat hij “de term ‘kunstmatige intelligentie’ had uitgevonden […] omdat we iets moesten doen toen we geld probeerden te krijgen voor een zomerworkshop in 1956.” Hij ontving het geld en de Dartmouth Het zomeronderzoeksproject over kunstmatige intelligentie is van start gegaan.
De kleinschalige strijd om een territorium
Degenen die bekend zijn met het verstrekken van academische subsidies zullen de behoefte van McCarthy aan een overkoepelende term begrijpen. Deze overkoepelende term was retorisch bedoeld om het werk op te nemen van degenen die hij van plan was uit te nodigen om samen te werken en om degenen uit te sluiten die hij niet wilde uitnodigen. En tegelijkertijd moet het de interesse wekken van financiers. En natuurlijk is het uitvinden van een nieuwe term een beproefde manier om je territorium uit te zetten en te verdedigen – nog een academische noodzaak.
McCarthy wilde Norbert Wiener niet uitnodigen, wiens term ‘cybernetica’ destijds een groot deel van het vakgebied definieerde. “Ikzelf”, zei hij een paar jaar later in een interview, “heb onder meer de term ‘kunstmatige intelligentie’ uitgevonden om de associatie met ‘cybernetica’ te vermijden. […] Ik wilde voorkomen dat Norbert […] als goeroe zou worden geaccepteerd of met hem te maken zou krijgen.”
Iedereen die een specialisme vestigt en daarmee een conceptueel kader stelt, kan het ook gebruiken om fondsen en prestige te vergaren. Het is ook belangrijk dat de makers van het veld verschijnen als uitvinders, niet als de verdere ontwikkelaars ervan. In de wetenschap is, net als elders, nieuwigheid een fetisj. Marvin Minsky, Claude Shannon en natuurlijk McCarthy – de mannen die we moeten beschouwen als de vaders van kunstmatige intelligentie – bereikten deze status zowel door hun werk als door hun pure aanwezigheid toen de term werd uitgevonden.
Natuurlijk is een naam niet alles, maar ik vraag me vaak af waar we vandaag zouden zijn als de naam cybernetica was aangeslagen. Of als de term informatieverwerking nog bestond in zijn beschrijvende saaiheid. En als dat niet het herhalen van het woord “intelligentie” was – met al zijn grimmige geschiedenis en eugenetische boventonen – elke keer dat we verwijzen naar de enterprise-, data- en computationele AI-modellen.
Een van de redenen waarom ik deze korte etymologie presenteer, is om duidelijk te maken dat de term AI een zeer contingente term is. En dat het minstens evenveel te maken heeft met de eisen van academische concurrentie en de eisen van financiers als met de aard van de technologie die het probeert te beschrijven.
Gezien het feit dat de term AI in de meer dan 70-jarige geschiedenis is toegepast op een breed scala aan heterogene technieken, moeten we ons afvragen: waarom maakte AI – de term en de bijbehorende mythologie – plotseling een comeback in de vroege jaren 2010 toen het populair werd? Waarom nemen we deze terugkeer op na een lange pauze?
De geschiedenis van genetwerkte gegevensverwerking
Networked computing begon als een militair initiatief – althans in de Verenigde Staten – en werd grotendeels gefinancierd door de Amerikaanse overheid, die ook de computerindustrie gedurende een groot deel van haar geschiedenis ondersteunde. De angst voor de Koude Oorlog was een drijvende kracht. In het begin van de jaren 1990 werd de computernetwerkinfrastructuur – of het “internet” – geprivatiseerd en gecommercialiseerd. Dat was de wending tot neoliberaal beleid, vergezeld van de vaste overtuiging uit het Clinton-tijdperk dat ‘hightech’ balsem was voor een noodlijdende economie.
Hier put ik uit het uitstekende werk van Matthew Crain, wiens boek Profit Over Privacy een belangrijk hulpmiddel is om de dynamiek van de tijd te begrijpen.
Naarmate de privatisering van deze eens door de overheid gefinancierde universitaire en militaire infrastructuur vorderde, gaf de regering-Clinton verschillende overheidsinstanties de opdracht om hun risico’s en voordelen te beoordelen. En vanuit het perspectief van vandaag is het duidelijk dat het bewakingsbedrijfsmodel geen vergissing was, noch toeval, noch een toekomst die niemand voorzag. Integendeel: de gevaren en schade die ons vandaag de dag bedreigen door de geconcentreerde macht van massasurveillance in de handen van enkele particuliere actoren, waren voorzien. Maar de waarschuwingen werden destijds genegeerd.
Het bedrijfsmodel van toezicht
Academici, maatschappelijke organisaties en verschillende overheidsinstanties hebben aan de alarmbel getrokken: particuliere bedrijven toestaan zichzelf te reguleren op het gebied van privacykwesties kan enorm schadelijk zijn. Maar de waarschuwingen vielen in neoliberale oren en de tijdgeest zegevierde. En dat was: winsten privatiseren en kosten collectiviseren.
De regering-Clinton gaf de voorkeur aan de standpunten van de technologie- en advertentie-industrie – inclusief die van bekende grote technologiespelers zoals Eric Schmidt – boven hun eigen experts. Uiteindelijk heeft het een commercialisering mogelijk gemaakt die geen grenzen liet aan de bewaking en gegevensaggregatie door de snelgroeiende technologie-industrie.
Op deze manier kon het bewakingsbedrijfsmodel zich ongehinderd verspreiden. Het kwam met vallen en opstaan , de dotcom-boom en de dotcom-mislukking in een ongemakkelijk evenwicht terecht voordat het evolueerde naar het geconsolideerde monopolistische landschap van vandaag. Crain omschrijft de ontwikkeling onopgesmukt als volgt: “Het economische succes van de industrie is gebaseerd op de vrijwel onbeperkte monetisering van de consument: intern toezicht”. En toezicht – gevoed door advertenties – blijft de basis van de huidige technologie-industrie.
Dit model heeft de plotselinge verspreiding van zogenaamde “gratis” internetdiensten mogelijk gemaakt en aangewakkerd – van zoeken op internet tot e-mail en sociale netwerken. De leidende bedrijven hebben continu enorme computerinfrastructuren en -technologieën voor deze producten en de bijbehorende waardevolle data-acquisitie gebouwd. Ze hebben enorme sommen geld geïnvesteerd om enorme hoeveelheden data snel te kunnen verwerken en opslaan.
De tendens naar “natuurlijk monopolie”
Dit brengt ons op een belangrijk punt: het bewakingsbedrijfsmodel heeft de neiging zich te consolideren – of in economistentaal: “natuurlijk monopolie”. De technologiebedrijven die het bedrijfsmodel voor geautomatiseerde bewaking in een vroeg stadium verfijnden, bouwden enorme infrastructuren, enorme dataopslagplaatsen en grote gebruikersbestanden. Concurrenten konden dit niet zomaar namaken of zomaar kopen. Op deze manier versterkte het systeem zichzelf.De bedrijven die er in het begin bij betrokken waren, zijn nu bijna allemaal die bedrijven die we “big tech” noemen.
Begin 2010 hadden de grote technologiewinnaars zich gevestigd. Ze begonnen hun marktdominantie te consolideren. Ze gedroegen zich steeds meer als de door aandeelhouders gedreven megabedrijven die ze waren. Daarbij lieten ze langzaam maar zeker het uiterlijk van het technocratische buitengewone los dat hun opkomst in het begin kenmerkte.
De basis van de AI-boom
Terug naar onze oorspronkelijke vraag: waarom is AI op dit punt weer verschenen? Dit is geen toeval. Gegevens – hoe meer hoe beter – computerinfrastructuur en marktbereik zijn ook de drijvende krachten achter de recente hausse op het gebied van AI. Er is veel raakvlak tussen deze factoren en de infrastructuren die zijn gebouwd om het bewakingsbedrijfsmodel mogelijk te maken.
Het ‘nieuwe’ aan AI begin jaren 2010 waren niet de innovaties op het gebied van machine learning. De meeste van deze methoden dateren uit de jaren tachtig. Nieuw was enerzijds de aanzienlijke hoeveelheid data die wordt gebruikt om AI-modellen te trainen. Aan de andere kant was er nu een krachtige computerinfrastructuur om deze modellen te trainen en te kalibreren. En al die middelen waren in handen van een paar particuliere technologiebedrijven.
Met dit in gedachten is de primaire rol van AI om beter gebruik te maken van de enorme hoeveelheden surveillancegegevens die door technologiebedrijven worden verzameld en opgeslagen. Met behulp van de magie en marketing van AI kunnen deze gegevens worden gebruikt om modellen van onze “realiteit” te maken. Bedrijven gebruiken deze modellen voor veel meer dan alleen reclame. Ze gebruiken het onder meer om voorspellingen te doen over bijna alle gebieden van het menselijk leven – van verkeer en onderwijs tot geneeskunde. Dit creëert intieme gegevens over ieder van ons. En dat gegevens, zelfs als ze afkomstig zijn van voorspellende modellen in plaats van directe monitoring en gegevensverzameling, een impact hebben op ons en ons leven.
Kortom, het AI-marketingverhaal dient om het bedrijfsmodel van surveillance in het hart van de technische industrie te mystificeren, te verstevigen en uit te breiden.
AI heeft werk nodig
Voordat ik verder ga, wil ik iets belangrijks aan de orde stellen. Want niets hiervan is geautomatiseerd. Het heeft veeleer mensen nodig die werken – om precies te zijn: het heeft veel mensen nodig die veel werken. Dit geldt zowel voor de ontwikkeling van AI-systemen als voor het gebruik ervan om verschillende rollen en taken te ‘automatiseren’.
Op beide gebieden helpt het intelligente automatiseringsverhaal de bedrijven bij het ontwikkelen van deze systemen. Ze hebben er baat bij om hun status als baanbrekende innovators te bevestigen en hun systemen de capaciteiten toe te kennen die ze echt aan werknemers te danken hebben.
En hoewel Emily Denton, Timnit Gebru, Veena Dubal, Alex Hannah, Adrienne Williams en vele anderen er uitgebreid over hebben geschreven, blijft het werk achter de AI meestal onvermeld en dus verborgen.
Het ImageNet-voorbeeld
Ik noem het voorbeeld van de ImageNet-dataset en de ImageNet Large Scale Visual Recognition Challenge , die sinds 2010 jaarlijks als wedstrijd wordt gehouden. Ik vertrouw op een prachtig artikel van Dr. Emily Denton en haar collega’s . De tekst werpt licht op de geschiedenis van ImageNet en het belang ervan voor de huidige opkomst van AI. ImageNet was de eerste grote openbare AI-dataset die liet zien dat oude technieken nieuwe dingen kunnen doen met enorme hoeveelheden data en computers.
ImageNet is een uitgebreide verzameling van ongeveer 14 miljoen afbeeldingen afkomstig van Flickr, afbeeldingen zoeken en verschillende webplatforms, georganiseerd in ongeveer 20.000 categorieën op basis van de WordNet-taxonomie.
De willekeurig geselecteerde afbeeldingen werden niet simpelweg gecategoriseerd, gesorteerd en gelabeld. En het project strandde bijna over hoe je een enorme verzameling willekeurige afbeeldingen in een paar algemeen aanvaarde labels kon proppen. ImageNet-directeur FeiFei Li overwoog destijds het project stop te zetten nadat hij zich realiseerde dat het jaren en aanzienlijke bedragen zou kosten om de gegevens te organiseren en te labelen. Jia Deng, een medewerker van ImageNet, schatte dat als alleen studenten dit werk zouden doen, het 19 jaar zou duren.
Volgens een interview dat ik in 2017 met Li heb gehouden, was het echter een toevallig gesprek met een student in de gang dat het toekomstige lot bepaalde en het arbeidsbeleid van ImageNet opnieuw afstemde. Ergens in 2005 of 2006 zei deze student tegen Li dat Amazon onlangs een “crowdwork”-platform had gelanceerd met de naam Amazon Mechanical Turk. Het is mogelijk om het labelen van de afbeeldingen uit te besteden aan de laagbetaalde werknemers op dit platform.
Dat is precies wat het ImageNet-team deed. Het brak de dataset in kleine stukjes en ontwierp een proces om die “labels” te accepteren die verschillende Amazon Turk-arbeiders eerder hadden bevestigd. Uiteindelijk namen 49.000 werknemers uit 167 landen de organisatie en labeling van de gegevens over.
Het is dus redelijk om te zeggen dat ImageNet, en mogelijk de AI-boom die daarop volgde, vandaag de dag niet zou bestaan zonder het precaire stukwerk dat Amazon Turk bemiddelde.
Menselijke arbeid is onvermijdelijk
En hoewel deze werkers van vitaal belang zijn geweest voor het project, worden ze volgens Denton en haar co-auteurs nooit genoemd als bijdragers. En dit ondanks het feit dat hun kennis en inzichten in belangrijke mate hebben bijgedragen aan de totstandkoming van de ImageNet-database – en daarmee ook AI-modellen die met deze database worden getraind.
Dit is niet zo gek als we een beetje uitzoomen. Omdat de mythe van de “intelligente machine” moeilijk vol te houden is als we zouden noemen waar deze intelligentie vandaan kwam – namelijk van tienduizenden arbeiders en hun vaardigheden waarmee ze miljoenen foto’s annoteerden. En de foto’s zelf zijn ook gemaakt door niet bij naam genoemde medewerkers.
Dit voorbeeld lijkt misschien achterhaald. Het zou de indruk kunnen wekken dat generatieve AI of wat dan ook volgend jaar de trend zal zijn, een ontsnappingssnelheid heeft ontwikkeld die sterk genoeg is om menselijke arbeid overbodig te maken. Maar wees gerust: ook in de toekomst zal menselijke arbeid nodig zijn.
traumatiserende activiteiten
Om nog een voorbeeld te noemen: Billy Perrigo van Time onthulde dat OpenAI en GPT afhankelijk zijn van Keniaanse werknemers die minder dan $ 2 per uur verdienen.
Deze arbeiders moesten tienduizenden teksten lezen om te zien of ze grimmige beschrijvingen bevatten van seksueel misbruik van kinderen, bruut geweld, zelfmoord, marteling of zelfbeschadiging. Het is de rotzooi uit de meest verontrustende hoeken van het internet waar OpenAI een deel van zijn trainingsgegevens voor GPT vandaan haalt.
Werknemers moeten de juiste tekst markeren om GPT te laten weten hoe verboden gegevens eruit zien. Het heeft dit werk ook nodig. Zonder deze werknemers en het trauma dat ze oplopen, zou er geen markt zijn voor GPT. Deze systemen repliceren en spiegelen de gegevens waarop ze zijn getraind. Dit betekent dat ze vaak zonder tussenkomst racistische, verontrustende en misselijkmakende inhoud uitspugen. En alleen door systemen als GPT de grenzen van een aanvaardbaar liberaal discours te leren kennen, kan zo’n systeem op de markt worden gebracht als intelligent en nuttig.
De traumatische aard van dit werk heeft ertoe geleid dat verschillende werknemers hebben geklaagd en ernstige psychische problemen hebben ontwikkeld. Uiteindelijk beëindigde het bedrijf dat OpenAI had ingehuurd als onderaannemer voor dit werk het contract. Het is de moeite waard om deze casus te bestuderen. Onlangs hebben werknemers van deze en andere bedrijven in Afrika gestemd om de African Content Moderators Union op te richten. Ze willen de aandacht vestigen op hoe precair en schadelijk dit werk is.
De extractieve logica achter de AI
Menselijke perceptie en menselijke kennis worden daarom meegenomen in de ontwikkeling van AI-systemen. Grote bedrijven halen deze kennis en ervaring uit laagbetaalde werknemers, die doorgaans in het Zuiden wonen. Hun inzichten worden vervolgens ontmenselijkt, gerepliceerd en opnieuw samengesteld door geautomatiseerde systemen op basis van de gegevens die deze werknemers zinvol hebben gemaakt.
Deze extractieve logica wordt ook weerspiegeld in het willekeurig afromen van artistieke werken die de basis vormen van generatieve beeldsystemen zoals Midjourney en Dalle-E. De visie en artistieke vaardigheden van miljoenen kunstenaars worden geëxtraheerd en in de machine geplaatst zonder enige erkenning.
Extractieve logica bepaalt ook hoe AI-systemen op de werkplek worden toegepast. Beweringen over technologische innovatie, overdreven opvattingen over hun capaciteiten en de eisen van werkgevers vloeien samen in het idee dat AI-systemen werknemers kunnen vervangen. Deze bewering is bijna nooit waar. Maar het hoeft niet eens feitelijk te zijn om impact te hebben.
Omdat werknemers niet worden gedegradeerd door systemen die hen daadwerkelijk kunnen vervangen. Integendeel, ze hebben al impact als je mensen laat geloven dat dergelijke systemen werknemers kunnen vervangen. En door de mensen die met de systemen moeten werken te bestempelen als laaggeschoold, waardoor lage lonen worden gerechtvaardigd.
Als baken van hoop tegen deze trend wil ik wijzen op de staking van de Writers Guild of America . Ik zie deze staking als de frontlinie in de strijd voor zinvolle en humane AI-regulering.
De WGA is de Hollywood Writers Union en herdenkt de strijd van industriële arbeiders in het 18e en 19e eeuwse Groot-Brittannië die vochten voor macht over hun werkplek en een deel van de voordelen van automatisering. Ze strijden voor medezeggenschapsrecht over of – en zo ja, hoe – AI wordt ingezet in hun creatieve proces.
De auteurs hebben erkend dat AI niet in staat is tot creativiteit. Technologie kan studio’s echter een excuus bieden om de invloed van werknemers en hun levensonderhoud te beperken. Ze zouden bijvoorbeeld auteurs kunnen ontslaan en sociale uitkeringen kunnen schrappen. Dezelfde mensen zouden dan weer worden ingehuurd als “AI-editors”, waarschijnlijk via een gigwork-model dat lagere stabiliteit, secundaire arbeidsvoorwaarden en lonen biedt. Leidinggevenden zouden dit dan als kostenbesparende maatregel aan aandeelhouders kunnen aankondigen.
Neuralink wil de mensheid herstellen
Laten we nu kijken naar de vraag wie de wereld waarin we leven mag bepalen. Een vraag waar ook AI-bedrijven erg in geïnteresseerd zijn.
Daarvoor wil ik Neuralink , het bedrijf van Elon Musk, dat AI-systemen en mensen met elkaar wil verbinden door middel van hersenimplantaten, eens nader bekijken. Om welke reden dan ook heeft de Amerikaanse Food and Drug Administration (FDA) onlangs officieel toestemming gegeven om chips in de schedel van mensen te implanteren. Dit ondanks de kritiek dat Neuralink talloze apen, varkens en schapen verminkt en doodt om zijn producten te testen voordat ze door de FDA worden goedgekeurd.
Nu ontwikkelt Neuralink hersenimplantaten die in de schedel worden ingebed en elektroden rechtstreeks in de hersenen zullen inbrengen. Waarom zouden we dat willen? Elon Musk legt uit dat mensen zonder dat niet in staat zouden zijn om te gaan met de superioriteit van AI en dat we achterblijven: “Op soortniveau is het belangrijk om uit te vinden hoe we naast geavanceerde AI kunnen bestaan en een soort van AI-symbiose.” belooft Neuralink, ons verenigend met die superintelligentie via “directe, onmiddellijke interacties tussen onze hersenen en externe apparaten.” De mythologie van AI-intelligentie – en haar superioriteit – is de basis die wordt gebruikt om deze invasieve technologie te rechtvaardigen.
In een promotievideo van december 2020 beweert Musk dat Neuralink een groot aantal problemen zal oplossen: “De realiteit is dat bijna iedereen in de loop van de tijd hersen- en ruggengraatproblemen krijgt.” Op de achtergrond van de video zien we de woorden “geheugenverlies, gehoorverlies, blindheid, verlamming, depressie, angst, verslaving, slapeloosheid, hersenbeschadiging”. Musk beweert dat: “een implanteerbaar apparaat deze problemen daadwerkelijk kan oplossen.”
Hier presenteert Musk een visie op de mensheid waarin de toekomst rooskleuriger is omdat gehandicapten worden weggevaagd. Ze worden ‘gefixeerd’ door ze te veranderen in een normatieve versie van een onbeperkte mens.
“Alles over ons zonder ons”
Het moet duidelijk zijn dat dit een eugenetische visie is. Musk en Neuralink claimen impliciet het recht om te definiëren wat ‘normaal’, ‘slim’ en ‘ideaal’ is.
Op deze manier keert Neuralink – net als de vele minder invasieve AI-systemen die zijn ontworpen om ons en onze wereld te beoordelen, voorspellen en evalueren – de slogan voor gehandicaptenrechten om: “Niets over ons zonder ons.” In plaats daarvan bouwt Neuralink voort op iets dat net zo tegenovergestelde hiervan: “Alles over ons zonder ons.”
In reactie hierop benadrukt de activist en wetenschapper Eli Clare met betrekking tot dove mensen : “Veel dove mensen zien zichzelf niet als gehandicapt maar als een taalkundige minderheid. Ze zien de oorzaak van hun problemen niet in hun onvermogen om te horen, maar in de onwil van de niet-dove wereld om gebarentaal te leren en te gebruiken.” Met andere woorden, de dovengemeenschap omarmt geen technologie die, in de woorden van Clare, “ de hoop brengen in de niet-dove wereld om zowel doofheid als ziekte als doofheid als identiteit uit te roeien.
Met andere woorden, niet iedereen wil zich conformeren aan de versie van normaliteit die Elon Musk of een AI bedenkt. Evenmin deelt iedereen dit verontrustende wereldbeeld, waarin de mens wordt neergezet als het probleem en bedrijfstechnologie als de oplossing.
Sterfte en ziekte als oplosbare problemen
Voormalig Neuralink-president Max Hodak beschrijft zichzelf op zijn website als “een algemene intelligentsia die in San Francisco woont”. Hij gelooft in Musks fantasie van mens-AI-symbiose en beschrijft Neuralink als “een ongewone gimmick” die mensen zou kunnen transformeren in een soort bovenmenselijke soort. In een Twitter-peiling uit 2021 over de beloften van Neuralink, vroeg Hodak: “Wat zou een grotere impact op u hebben: fotografisch geheugen, ideale aandachtscontrole, ideale emotionele controle of controle over het tempo van de tijd?”
Hier zien we een al te bekende kijk op fysieke beperkingen een stap verder gaan: het medische model van handicap, volgens onderzoekers Sara Hendren en Mara Mills, beschouwt handicap “als een beperking, ziekte of stoornis die inherent is aan het individu. ” Deze gedachte wordt door Neuralink toegepast op de onvolmaakte mensheid als zodanig. Ja, niet alleen onze lichamelijke behoeften, maar ook de sterfelijkheid zelf wordt gezien als een probleem dat moet worden opgelost.
In deze neoliberale visie zijn sociale problemen geworteld in het falen van individuen: we zijn kapot en hebben reparatie nodig. En voor het probleem van een mens zijn met een beperkt leven en beperkingen, verkoopt Neuralink ons de “oplossing”. Door dit te doen, claimt het bedrijf het recht om de normen te bepalen waaraan onze menselijkheid moet worden gemeten – en dus de autoriteit om ons en onze wereld te definiëren.
AI bepaalt nu al wie toegang krijgt tot middelen
Dit neoliberale argument vinden we ook voorbij de debatten over neurale technologie, bijvoorbeeld met het oog op AI-producten in ons leven.
Omdat artificiële intelligentie al bepaalt wie toegang heeft tot middelen en kansen op heel verschillende gebieden. De lijst varieert van onderwijs tot strafrecht, gezondheidszorg, onroerend goed en leasing tot monitoring en beoordeling van werknemers.
En wat de marketing ook belooft, deze systemen worden gebouwd door bedrijven die streven naar winst en groei. En ze zijn ontworpen om het testen van middelen, toezicht, bezuinigingen en andere vormen van sociale controle mogelijk te maken. De gebruikers van deze systemen zijn echter niet de mensen die door deze systemen worden gescreend en beoordeeld. De functies van deze systemen zijn ook niet ontworpen om te voldoen aan de behoeften van de getroffen mensen.
Dat is ook de reden waarom ik als voorzitter van Stichting Signal tegen deze ontwikkeling ben. De AI-bedrijven willen een wereld waarin ze privacy, autonomie en het vermogen tot zelfexpressie en zelfbeschikking ernstig in gevaar brengen. Signal verdedigt deze door het bedrijf bedreigde activa.
En natuurlijk zijn die technologieën die we AI noemen fundamenteel anti-privacy. Omdat ze het technische bewakingsmodel nodig hebben om uit te breiden en te consolideren – steeds meer gegevens verzamelen en steeds meer bevoegdheden claimen om onze wereld te definiëren met behulp van AI-systemen.
Onze gedachten, onze psyche en ons lichaam?
We moeten Neuralink en andere commerciële AI-systemen in dit landschap passen. En we moeten ons bewust zijn van de risico’s als in de toekomst een handvol particuliere bedrijven ons leven, onszelf en onze gevoelens en reacties willen meten. Uiteindelijk willen deze winstgedreven bedrijven onze gedachten, onze psyche en ons lichaam beter interpreteren dan wij kunnen.
Een terugblik op de jaren zestig volstaat om te beseffen hoe ingrijpend dit kan zijn. In die tijd was er politiek misbruik van de psychiatrie. Jonathan Metzel heeft gedocumenteerd hoe wijzigingen in de Diagnostic and Statistical Manual of Mental Disorders (DSM) ertoe leidden dat zwarte burgerrechtenleiders destijds als ‘schizofreen’ werden gediagnosticeerd. Deze diagnose was grotendeels gebaseerd op het feit dat haar activisme werd gepathologiseerd .
Of laten we teruggaan naar 1973. Tot dan toe vermeldde de DSM homoseksualiteit als een psychische stoornis. Of naar 2012, toen het transseksualiteit nog als ziekte vermeldde. Veel extremisten in de VS en het VK vechten momenteel met alle mogelijke middelen om deze status te herstellen.
AI en de epistemische autoriteit
Laat me duidelijk zijn: ik zie geen enkel bewijs dat dergelijke hersenleestechnologieën mogelijk zijn of dat claims geldig zijn. Ik zou hier willen verwijzen naar het werk van Luke Stark, Javon Hudson en anderen . Je hebt de grenzen laten zien van die AI-systemen die momenteel beweren de emoties, karaktereigenschappen en capaciteiten van mensen te kunnen “lezen”.
Maar, en dit is het belangrijkste punt van epistemische autoriteit, deze technologieën hoeven niet eens te werken, zoals ze beweren, om bedrijfs- en investeerdersdoelen te dienen. En als we kijken naar de huidige AI-hype, dan zien we het toekomstbeeld waar bedrijven naar streven.
De zaak Neuralink illustreert duidelijk dat er een wil is om de wereld tot in de kern vorm te geven. Bedrijven willen het vermogen van mensen omarmen om vrijuit hun gedachten, gevoelens en percepties te uiten zonder gecontroleerd te worden door een computersysteem waarvan het perspectief altijd de doelen weerspiegelt van de bedrijven die deze systemen produceren en implementeren.
Ga resoluut de hype tegen
Dit is naar mijn mening precies wat de huidige hype over het existentiële risico van AI zou moeten bereiken: aan de ene kant moet het de onvermijdelijkheid en het uitzonderlijke karakter van deze technologie aantonen. Aan de andere kant moet de hype bij het gebruik van de AI-systemen afleiden van de bedrijfsdoelen. Juist daarom vind ik het essentieel om de hype resoluut tegen te gaan.
Er is geen bewijs dat AI op de rand van kwaadaardige superintelligentie staat of ooit zal staan. Francois Chollet is onderzoeker op het gebied van kunstmatige intelligentie en medeverantwoordelijk voor een van de centrale AI-ontwikkelingsinfrastructuur. Hij zegt het ronduit : “Voor alle duidelijkheid: op dit moment en in de nabije toekomst is er geen AI-model of -techniek die een risico van uitsterven voor de mensheid kan vormen. Niet in de ontwikkelfase en ook niet als je de mogelijkheden via schaalwetten extrapoleert naar de verre toekomst.”
To be clear, at this time and for the foreseeable future, there does not exist any AI model or technique that could represent an extinction risk for humanity. Not even in nascent form, and not even if you extrapolate capabilities far into the future via scaling laws.
— François Chollet (@fchollet) June 2, 2023
Het benadrukken van dit existentiële risico is echter buitengewoon dwingend – het verhoogt de adrenaline en wekt ontzag op. En het is ook een impliciete reclame voor de AI-systemen. Ze worden afgeschilderd als bijzonder capabel, zelfs superieur aan mensen. Nogmaals, het hoeft niet eens waar te zijn om de wereld te beïnvloeden.
AI-mythen ontkrachten
Zoals Sun-Ha Hong opmerkte in zijn uitstekende essay Prediction as Extraction of Discretion , “de sociale impact van technologieën […] overtreft gewoonlijk hun werkelijke mogelijkheden of implementatie”. Dit is mogelijk omdat de verhalen over deze technologieën ons begrip vormen van wat mogelijk is en wat onvermijdelijk is. En ze beïnvloeden de politiek, onze gewoonten en onze waarden.
De industriegedreven AI-hype die volgde op de lancering van de ChatGPT-interface door Microsoft in januari draagt hieraan bij. Hij doet empirisch ongefundeerde voorspellingen over de mogelijkheden van AI en vormt daarmee onze perceptie van deze technologie. Dit heeft weer invloed op ons handelen in het heden – met het oog op mogelijke regelgeving, de manier waarop deze technologieën worden ontwikkeld en of en hoe werknemers worden beschermd.
Dit is ook een van de belangrijkste redenen waarom de bedrijven en hun bondgenoten bijna fantaseren over het existentiële risico van AI. Ze hopen blijkbaar de publieke opinie en politieke oplossingen te richten op de verre toekomst, in plaats van de status quo te reguleren.
Juist daarom is het zo belangrijk om dit verhaal van de AI-bedrijven te corrigeren. Niet alleen omdat we gelijk willen hebben. Maar omdat we onze beslissingen op een realistische basis moeten nemen. Het is daarom cruciaal dat we de verhalen over zogenaamd bovenmenselijke AI ontkrachten voor wat ze zijn: mythen.
Meredith Whittaker is voorzitter van de Signal Foundation . Ze was medeoprichter van de denktank AI Now Institute en was professor aan de New York University. Tot 2018 werkte ze bij Google, waar ze de afdeling Google Open Research oprichtte. Ze protesteerde tegen de militaire samenwerking van Google met betrekking tot Project Maven en was een van de belangrijkste organisatoren van de Google Walkout, waar werknemers protesteerden tegen seksuele intimidatie en discriminatie binnen het bedrijf.
Deze tekst is gebaseerd op de toespraak die Meredith Whittaker hield op re:publica 2023 .
Openbaarmaking: re:publica is mede opgericht door Markus Beckedahl; onze collega Ingo Dachwitz werkte dit jaar op vrijwillige basis in het baanteam ‘Politiek en Maatschappij’ op het evenement.