Kunstmatige intelligentie en andere innovatieve technologieën evolueren voortdurend in een snel tempo. Maar wat is er nodig om deze tools voor ons als samenleving te laten werken?
kunstmatige intelligentie Ik zou willen beginnen met een metafoor die afkomstig is van Stuart Russell, een Britse AI-onderzoeker die in de Verenigde Staten woont. Russel suggereert dat we ons wegenbouwkundigen voorstellen die erg goed zijn in het maken van asfalt. En deze ingenieurs zouden zeggen dat ze, omdat ze zulke goede ingenieurs zijn, ook zouden moeten beslissen waar het asfalt wordt gelegd.
Het strand? We hebben het eigenlijk niet nodig. Het zou veel beter zijn als het geasfalteerd was. je tuin? Gras wordt overschat, asfalt is veel efficiënter. Je wilt niet achterblijven in ontwikkeling. U moet beginnen met bestraten – nu en onmiddellijk.
De AI die ons omringt
In veel opzichten is dit een geschikte metafoor voor wat er momenteel gebeurt in het debat over kunstmatige intelligentie.
Laten we de hype, uitbundigheid en angsten die generatieve AI-modellen zoals ChatGPT, DALL-E en hun soortgenoten ontketenen even opzij zetten. Laten we in plaats daarvan eens nadenken over hoe deze technologieën binnenkort bijna onzichtbaar zullen worden geïntegreerd in veel van de producten en diensten die we in ons dagelijks leven gebruiken. In tegenstelling tot asfalt zullen we dan niet meer kunnen herkennen of we onze toevlucht nemen tot tools, interacties of beslissingen die mogelijk voor ons zijn genomen.
Er is een andere manier waarop infrastructuur een zeer belangrijke metafoor wordt voor hoe we denken over onze dagelijkse interacties. Iedereen die zich bezighoudt met wetenschap en technologie begrijpt dat infrastructuur grote maatschappelijke macht ontwikkelt zodra deze onzichtbaar wordt. Die onzichtbaarheid van infrastructuur is letterlijk wat infrastructuur definieert.
We hebben keuzes gemaakt die ons vandaag in staat stellen te begrijpen hoe technologische infrastructuur onze samenleving beïnvloedt. En we kunnen vandaag beslissingen nemen om “kunstmatige intelligentie”-technologieën voor ons te laten werken – en beter te laten werken.
Maar helaas worden deze beslissingen tegenwoordig luidruchtig bepleit door mensen die beweren technisch onderlegd te zijn. En niet door degenen onder ons die zeggen: wacht even, we zouden een zekere mate van autonomie, verantwoordingsplicht en transparantie moeten hebben in de beslissingen die we nemen.
gegevens worden gemaakt
We kunnen anders gaan denken over de data die onze technologische systemen aansturen. Deze gegevens zijn gemaakt. Ze zijn niet natuurlijk. Er zijn ook geen gevonden gegevens. In plaats daarvan zijn ze altijd het product van beslissingen en keuzes. En deze keuzes hebben zowel sociale als technologische implicaties.
Dus de vaak herhaalde uitdrukking in Silicon Valley dat data de nieuwe olie is, is niet waar. Deze gegevens liggen niet rond te wachten om gevonden te worden. Data is in ieder geval de nieuwe waterkracht. De dammen voor onze collectieve gegevens moeten worden ontworpen en gebouwd. De gegevens moeten worden verzameld en bruikbaar gemaakt.
De misvatting dat er een soort natuurlijke en objectieve gegevensrealiteit bestaat, speelt een rol bij een reeks politieke en culturele beslissingen. Beslissingen over wie de macht moet hebben over de te nemen beslissingen.
producten van menselijke interactie
Wat zijn deze beslissingen? Er is een tweede manier waarop we kunnen nadenken over gegevens die onze systemen vandaag aandrijven: als een product van menselijke interacties en communicatie. Zo ontstonden de Large Language Models (LLM’s) die volgens de media een formidabele bedreiging vormen uit het spoor van deze interacties. En die gegevens zijn wij. Maar zonder context worden deze interacties zinloos.
Twee jaar geleden schreven twee Google-onderzoekers samen met andere auteurs een studie. Uit dit onderzoek blijkt al dat het pad waarop AI-ontwikkeling zich afspeelt verkeerd is. En inderdaad, voor sociale wetenschappers en geesteswetenschappers is het een onzinnig idee dat we enorme hoeveelheden gegevens en onze interacties gebruiken om intelligentie te ontwikkelen.
De onderzoekers creëerden de metafoor van de stochastische papegaai. Dienovereenkomstig herhalen grote taalmodellen alleen wat waarschijnlijk zal volgen als het volgende woord, de volgende zin, de volgende zin. Maar zoals we weten, zoals taalkundige Emily Bender opmerkt, is taal meer dan alleen maar napraten. In plaats daarvan gaat het veel meer om het begrijpen van de taalkundige context. Het gaat om een fundamenteel begrip van wat mijn co-auteur Peter Nagy en ik de “Imagined Affordance” van technologieën hebben genoemd .
Zonder context worden gegevens ontmenselijkt
Een andere taalkundige kwam met een interessant idee: stel je voor dat een medewerkster in een restaurant haar haarnetje is vergeten. Als we nu zouden vragen wat een betere vervanging zou zijn voor dat haarnetje – een hamburgerbroodje of een boterhamzakje – zou het voor mensen geen moeilijke beslissing zijn om te nemen.
Stel je voor dat je een knot op je achterhoofd legt. Dit werkt conceptueel niet zo goed. We hebben een mentaal beeld dat ons vertelt dat dit niet klopt. Maar taalmodellen hebben deze beelden niet. Wat ze hebben is een kaart. Een kaart van de gesprekken die op internet hebben plaatsgevonden, een kaart van onze interacties. Maar ze hebben geen kaart van conceptuele navigatie.
Zonder deze context zijn de gegevens van menselijke oorsprong, maar tegelijkertijd volledig ontmenselijkt. De grote taalmodellen die momenteel het enthousiasme voor artificiële intelligentie aanwakkeren, kunnen ons dus niet helpen om onze weg te vinden in deze systemen.
De greep naar politieke, economische en sociale macht
Na de publicatie kregen Google-onderzoekers het verwijt te veel voorzichtigheid te betrachten bij het ontwikkelen van grote taalmodellen. Ze waarschuwden zelfs dat de ontwikkeling van AI-modellen steeds meer middelen zou vergen. Deze zouden steeds fijner in het systeem moeten worden verwerkt, zodat het niet alleen stochastisch, maar uiteindelijk ook asymptotisch zou zijn. Het uitbreiden van deze modellen vraagt dus steeds meer data, middelen en tijd, terwijl het rendement steeds minder zou zijn. De auteurs hebben daarom gesuggereerd dat de voordelen van betere modellen moeten worden afgewogen tegen de financiële en milieukosten.
Onlangs schreef The New York Times-columnist Thomas Friedman dat de mensheid momenteel twee dozen van Pandora tegelijk opent – namelijk die van AI en die van klimaatverandering. Wat als we volgens Friedman de een zouden gebruiken om de ander te helpen? Dit voorstel ontkent echter dat er momenteel een groeiende fysieke infrastructuur wordt gebouwd om deze modellen aan te drijven. Maar waar zijn de vangrails? Waar is de verf op het asfalt? Waar zijn de snelwegborden? Waar is de rijopleiding? Waar is de infrastructuur waar we allemaal van genieten voor de veiligheid in onze sociale en culturele wereld?
Gezien dit alles zou ik willen stellen dat we te maken hebben met een van ’s werelds grootste sociale experimenten aller tijden. Dat de notie van macht in data berust op een buitengewoon simplistische notie van sociaal gedrag. En dat de notie van menselijkheid die in de AI-modellen is ingebouwd ook erg simplistisch is. Daarachter schuilt echter de greep naar politieke, economische en sociale macht. En we hebben toegestaan dat het idee van datagestuurde efficiëntie het criterium is waarmee we onze beslissingen evalueren.
De gevolgen van onze beslissingen
De gegevens die deze bedrijven gebruiken vertegenwoordigen een enorme financiële investering.En laten we eerlijk zijn, de grote taalmodellen waar we het over hebben zijn in handen van een paar bedrijven, die elk een van de grootste concentraties van financiële macht vertegenwoordigen die de mensheid ooit heeft gezien. Dus als we het hebben over data als macht, moeten we ook nadenken over de keuzes die een dergelijke infrastructuur en een dergelijke concentratie van economische macht voeden, en waarop onze samenleving dan is gegrondvest.
De huidige exploitatiekosten voor ChatGPT – niet de opleidingskosten, maar de dagelijkse exploitatiekosten – worden geschat op ruim 600.000 euro per dag. Dit bedrag wordt uitsluitend gemaakt voor de werking van de infrastructuur van dit taalmodel en voor de mensen die er enthousiast gebruik van maken. Is dit het soort toekomst dat we willen? En willen en kunnen we ons als samenleving zo’n toekomst veroorloven – als we de strijd tegen de klimaatcrisis en voor het doel van “netto zero” -emissies beschouwen als onderdeel van de andere doos van Pandora?
Hoe zit het met de banen?
We hadden het over infrastructuur en nu wil ik het hebben over werk. Vandaag stuurde een verslaggever me een paar vragen: Zal AI onze banen wegnemen? Zijn er sectoren waarin AI bijzonder veel banen gaat kosten? En hoe lang gaat dat duren? Geen probleem, laat me deze vragen in slechts drie zinnen per e-mail beantwoorden!
Als we kijken naar de stand van de economische kennis over productiviteit, zien we vooral een soort collectief schouderophalen. We weten eigenlijk niet hoe kunstmatige intelligentie het werk zal beïnvloeden. De Internationale Arbeidsorganisatie (IAO) schat dat er de komende tien jaar 100 miljoen banen zullen worden gecreëerd en 75 miljoen banen zullen verdwijnen. Als gevolg hiervan zou dat een nettowinst van 25 miljoen banen zijn. Dat is geweldig – tenzij je een van de 75 miljoen mensen bent die hun baan zullen verliezen vanwege kunstmatige intelligentie.
De aard van ons werk kan op elk moment snel veranderen – met name de individuele taken die deel uitmaken van onze professionele activiteiten. Als de AI mij op een dag vervangt als promotor van proefschriften, zal hij de studenten drie dingen vertellen: Je hebt een sterkere introductie nodig. Je hebt betere overgangen tussen je scripties nodig en je hebt een sterkere conclusie nodig. Want dat is wat ik altijd zeg.
In de hype rond AI van de afgelopen maanden zijn we vergeten dat het vooral een belangrijke taak is om technologieën in de praktijk te laten werken. Als we kijken naar het begin van de geautomatiseerde technologie, die een revolutie teweeg moest brengen in het werk op grote schaal, dan was het enthousiasme enorm. De algemene verwachting was dat de nieuwe technologieën bedrijven, werknemers en de manier waarop mensen werken op hun kop zouden zetten. Er werd gezegd dat automatisering banen zou vernietigen en banen zou creëren – net zoals we momenteel horen over AI.
Maar zelfs na al die jaren zijn de verhoopte veranderingen nog niet uitgekomen, hoewel de automatisering inmiddels ver gevorderd is. Maar waarom is het zo moeilijk om een hele branche uit te roeien of werkwijzen te veranderen?
De mensen die verandering teweegbrengen
Het antwoord is: wijzelf zijn de reden. We praten meestal over technologie alsof het iets voor ons doet. En niet alsof technologie het resultaat is van talloze discussies en onderhandelingen.
Ook deze onderhandelingen zullen worden gevoerd door mensen op de werkvloer met het oog op AI. Ze zullen vragen hoe de nieuwe tools in hun voordeel kunnen worden gebruikt. Zit er iets nuttigs in voor hen? En welke onderdelen kunnen ze gewoon negeren of afwijzen?
Hierachter zit een concept van onderhandelde innovatie, met name een meerfasenmodel voor hoe nieuwe technologieën verstandig kunnen worden gebruikt en hoe ze ons werk veranderen. Sociale wetenschappers zullen erkennen dat dit een samenspel is van sociale structuren en gelokaliseerde praktijken – met andere woorden, het concept bevat bouwstenen van sociale theorie die de relatie beschrijven tussen individuele actie en organisatorische en institutionele beperkingen. Deze balans tussen het individu aan de ene kant en het institutionele, organisatorische, sociale en culturele aan de andere kant kom je niet tegen in theorieën over technologische ontwrichting, laat staan in recente ChatGPT-koppen.
We moeten uitzoeken wat we als samenleving willen
Ons model begint met het proces van het vinden van betekenis. En onderdeel van deze betekenisvinding is wat we de “toekomst van werk” noemen , oftewel de vraag hoe we de toekomst gaan vormgeven en welke rol een nieuwe technologie daarin gaat spelen.
Dit zinvolle werk – en hier gebruik ik ‘sense building’ in de zin van organisatiepsycholoog Karl Weich – leidt tot bepaalde verwachtingen die bepalen hoe we omgaan met nieuwe technologieën op onze werkplek. Deze verwachtingen sturen en bepalen hoe nieuwe technologieën ontstaan. En het blijkt dat de mensen die zo’n verandering teweegbrengen niet de technologieontwikkelaars zijn. Het zijn niet de CEO’s, en het zijn ook niet de CTO’s. Het zijn eerder de mensen die op hun werkplek beslissen wat voor hen en hun team werkt. En in dit proces beslissen ze ook welke regels ze overtreden, d.w.z. welke sociale, organisatorische en institutionele beperkingen ze overtreden.
Hier komen we helemaal rond. Omdat het tijd kost om over deze veranderingen te onderhandelen. En het is dit onderhandelingsproces dat ons in staat stelt de technologie in actie te zien, de sociaal-technische infrastructuur die het kan zijn.
Dus als we willen dat kunstmatige intelligentie voor ons werkt, moeten we ervoor zorgen dat het werkt. We moeten als samenleving uitzoeken waar we mee bezig zijn en wat we willen veranderen. Met dit idee van maatschappelijk handelingsvermogen worden de te nemen beslissingen herkenbaar. En deze beslissingen zijn belangrijk voor onze toekomst.
De toekomst van AI
En dat brengt me bij de vraag van de toekomst – of meer specifiek bij de stelling dat AI is wat we er zelf van maken. Eerst wil ik een kort overzicht geven van hoe werk en infrastructuur ons helpen om na te denken over de toekomst.
Ten eerste het concept van infrastructuur, d.w.z. de beslissingen over wat voor soort technologische fundamenten er momenteel worden gecreëerd. Daarmee bedoel ik: welke soorten standaarden, gegevens, systemen, normen en uitdagingen zullen we toestaan en tolereren in onze samenlevingen? En zijn de beslissingen die nu worden genomen voor een breed publiek te rechtvaardigen?
Een tweede beslissing met betrekking tot infrastructuur is of we al dan niet macht geven aan bepaalde bedrijven die over enorme hoeveelheden gegevens beschikken. Dit begint al met een retoriek over AI-technologieën die te paniekerig is. Want dit ondersteunt uiteindelijk de argumenten van de bedrijven door te zeggen: Er is geen alternatief voor AI.
Maar feit is: zulke alternatieven zijn er. De vragen die ik mezelf stel zijn bijvoorbeeld: Hoe kunnen we deze systemen open houden? Willen we een geopolitieke realiteit afdwingen waarin de materiële en infrastructurele middelen voor het bouwen van massieve computersystemen zo groot zijn dat staatsoptreden en democratische waarden naar de zijlijn worden gedrukt? Willen we echt beslissingen nemen ten gunste van een infrastructuur die innovatie voorrang geeft boven alle andere waarden? Of gaan we op zoek naar hoe we deze technologieën creatief en ten behoeve van de samenleving kunnen gebruiken?
Een digitale samenleving die werkt – voor ons allemaal
Maar wat is dit goed? Wat betekent dat? Als we een goede digitale samenleving willen hebben , moeten we begrijpen hoe goed eruit ziet. We moeten het kunnen definiëren en meten. En we moeten de bijbehorende technische specificaties kunnen overhandigen aan de engineers.
De uitdaging is om na te denken over deze ideeën van goed en hoe we eraan kunnen bijdragen vanuit een sociaalwetenschappelijk perspectief. Het is een uitdaging waar velen van ons, waaronder ikzelf, voor terugdeinzen.
Mijn oproep, met name aan onderzoekers, luidt dan ook als volgt: we moeten er actief aan bijdragen dat onze digitale technologische infrastructuur werkt – voor ons allemaal. De beslissingen die we momenteel nemen met betrekking tot kunstmatige-intelligentietechnologieën zijn geenszins in steen gebeiteld. Integendeel, we hebben verschillende opties. Maar het zal veel werk en moeilijke onderhandelingen vergen om dominante narratieven ter discussie te stellen en verandering te weerstaan. Maar alleen zo kunnen we de digitale samenleving bouwen die werkt – voor ons allemaal.
De tekst is gebaseerd op een lezing van Gina Neff als onderdeel van de serie Making sense of the digital society . De spraakreeks is een samenwerking tussen het Alexander von Humboldt Instituut voor Internet en Samenleving (HIIG) en het Federaal Agentschap voor Burgereducatie (bpb).
Gina Neff is uitvoerend directeur van het Minderoo Centre for Technology & Democracy aan de Universiteit van Cambridge. Ze onderzoekt hoe de snelle verspreiding van onze digitale informatieomgeving van invloed is op werknemers en werkplekken, maar ook op ons dagelijks leven. Gina Neff is gepromoveerd in de sociologie aan Columbia University en adviseert internationale organisaties zoals UNESCO, de OESO en het Women’s Forum for the Economy and Society. Haar publicaties omvatten Venture Labour (MIT Press 2012), Self-Tracking (MIT Press 2016) en Human-Centered Data Science (MIT Press 2022).