Met verdriet beladen vitriool gericht op AI slaagt er niet in ons te helpen wegen naar een betere toekomst te begrijpen die noch utopisch noch dystopisch zijn, maar openstaan voor radicaal vreemde mogelijkheden.
Tijdens een OpenAI-retraite niet zo lang geleden gaf Ilya Sutskever, tot voor kort de hoofdwetenschapper van het bedrijf, een lokale kunstenaar de opdracht een houten beeltenis te bouwen die ‘niet-gebonden’ AI voorstelde. Vervolgens stak hij het in brand om “de toewijding van OpenAI aan zijn grondbeginselen” te symboliseren. Deze merkwaardige ceremonie was misschien bedoeld om het werk van het bedrijf preventief te zuiveren van het schrikbeeld van kunstmatige intelligentie dat niet direct uitdrukking geeft aan “menselijke waarden”.
Slechts een paar maanden later werd het onderwerp een existentiële crisis voor het bedrijf en de raad van bestuur toen CEO Sam Altman werd verraden door een van zijn discipelen, gekruisigd en drie dagen later weer tot leven gewekt. Was dit ‘afstemming’ met ‘menselijke waarden’? Zo niet, wat was er aan de hand?
Eind vorig jaar publiceerde Fei-Fei Li, de directeur van het Stanford Human-Centered AI Institute, ‘ The Worlds I See ’, een boek dat de Financial Times ‘een krachtig pleidooi noemde om de mensheid centraal te houden in onze nieuwste ontwikkelingen’. technologische transformatie.” Het strekt haar tot eer dat ze op rituele wijze geen symbolen van niet-antropocentrische technologieën in brand heeft gestoken, maar samen met het vreemde ritueel van Sutskever zijn deze twee gebeurtenissen opmerkelijke mijlpalen in de bredere menselijke reactie op een technologie die ons zelfbeeld ontwricht.
‘Afstemming’ op ‘mensgerichte AI’ zijn slechts woorden die onze hoop en angst vertegenwoordigen met betrekking tot hoe AI voelt alsof het uit de hand is gelopen – maar ook met het idee dat complexe technologieën om te beginnen nooit onder menselijke controle hebben gestaan. Om redenen die meer politiek dan ontvankelijk zijn, houden sommigen vol dat ‘AI’ niet eens ‘echt’ is, dat het alleen maar wiskunde is of gewoon een ideologische constructie van het kapitalisme dat zichzelf tot een genaturaliseerd feit maakt.
Sommige critici zijn duidelijk erg boos over de maar al te reële vooruitzichten van alomtegenwoordige machine-intelligentie. Anderen erkennen de realiteit van AI, maar zijn ervan overtuigd dat het iets is dat kan worden gecontroleerd door wetgevende zittingen, beleidsdocumenten en gemeenschapsworkshops. Dit verzacht niet de depressie die wordt gevoeld door weer anderen, die een existentiële catastrofe voorzien.
Al deze reacties kunnen degenen die de evolutie van machine-intelligentie en de artificiële intelligentie zelf zien als een overbepaald gevolg van diepere ontwikkelingen, in verwarring brengen. Wat te denken van deze reacties?
Sigmund Freud gebruikte de term ‘Copernicaans’ om de moderne decentrering van de mens vanuit een plaats van intuïtief privilege te beschrijven. Na Nicolaus Copernicus en Charles Darwin nomineerde hij de psychoanalyse als de derde dergelijke revolutie. Hij typeerde de reactie op zulke decentralisaties ook als ‘trauma’s’.
Trauma brengt verdriet met zich mee. Dit is normaal. In haar boek uit 1969, ‘On Death and Dying’, identificeerde de Zwitserse psychiater Elizabeth Kübler-Ross de ‘ vijf stadia van verdriet ’: ontkenning, woede, onderhandelen, depressie en acceptatie . Misschien is het bij Copernicaanse trauma’s niet anders.
We moeten iets toevoegen aan de lijst van Freud. De neurowetenschappen hebben de geest ontraadseld en het dualisme in steeds exotischere hoeken geduwd . Biotechnologie verandert kunstmatig materiaal in leven. Deze inzichten veranderen de fundamentele realiteit van de natuurlijke wereld niet; ze laten zien dat het iets heel anders is dan wat onze intuïties en culturele kosmologieën ons eerder hebben geleerd. Dat onthullen is de kern van het trauma. Alle stadia van rouw zijn een reactie op de langzame en vervolgens plotselinge fragmentatie van voorheen fundamentele culturele overtuigingen. Net als de dood van een dierbare is de dood van een geloof zeer pijnlijk.
Wat tegenwoordig ‘kunstmatige intelligentie’ wordt genoemd, moet worden beschouwd als een Copernicaans trauma in wording. Het laat zien dat intelligentie, cognitie en zelfs de geest (de definities van deze historische termen staan duidelijk ter discussie) niet zijn wat ze lijken te zijn, niet wat ze voelen , en niet uniek zijn voor de menselijke conditie. Het is duidelijk dat het creatieve en technologische inzicht dat nodig is om intelligentie te kunstmatige, een menselijke prestatie is, maar nu is dat inzicht zichzelf opnieuw aan het maken.
Sinds de paleolithische cognitieve revolutie heeft de menselijke intelligentie veel dingen gekunsteld – onderdak, warmte, voedsel, energie, beelden, geluiden en zelfs het leven zelf – maar nu is die intelligentie zelf kunstmatig te maken .
De stadia van rouw van Kübler-Ross bieden een bruikbare typologie van de westerse theorie van AI : AI-ontkenning, AI-woede, AI-onderhandeling, AI-depressie en AI-acceptatie . Deze genres van ‘verdriet’ komen voort uit de reële en ingebeelde implicaties van AI voor de institutionele politiek, de verdeling van economische arbeid en vele filosofische en religieuze tradities. Ze zijn afwisselend diepgaand, zielig en voorspelbaar.
Ze weerspiegelen reacties die goed aanvoelen voor verschillende mensen, die het politiek meest opportuun zijn, het meest resoneren met de culturele dynamiek, het meest in overeenstemming zijn met eerdere intellectuele verplichtingen, het meest verenigbaar zijn met de algemene mainstream consensus, het meest expressief zijn voor een humanistische identiteit en zelfbeeld, en/of of het meest vleiende voor de griever. Elk ervan bevat een kern van waarheid en wijsheid, maar ook neurose en zelfbedrog.
Elk van deze vormen van verdriet is uiteindelijk ontoereikend bij het aanpakken van de ernstigste uitdagingen die AI met zich meebrengt, waarvan de meeste dwars door al deze uitdagingen en hun concurrerende claims voor kortetermijnvoordeel heen gaan.
De conclusie die getrokken moet worden is echter niet dat er geen echte risico’s zijn die geïdentificeerd en gemitigeerd kunnen worden, of dat netto positieve resultaten van AI zoals die momenteel wordt ontwikkeld en gemonetariseerd onvermijdelijk zijn. Terugkijkend op de nabije toekomst kunnen we ons afvragen hoe het mogelijk was dat de gesprekken over vroege AI zo kinderachtig waren.
De stadia van AI-rouw verlopen niet in willekeurige volgorde. Dit is geen psychologische diagnose; het is louter typologie. De posities van echte mensen in de echte wereld blijven niet binnen eenvoudige categorieën . Zo kunnen AI Denial en AI Anger elkaar overlappen, zoals vaak het geval is voor critici die in één zin beweren dat AI niet reëel is en toch koste wat het kost moet worden gestopt.
Mijn focus ligt op de westerse reacties op AI , die hun eigen eigenaardigheden en obsessies hebben en minder universeel zijn dan ze denken. Alternatieven zijn er in overvloed .
Ten eerste is er natuurlijk de ontkenning van AI: hoe kunnen we over AI debatteren als AI niet echt is?
Ontkenning
Symptomatische uitspraken: AI is niet echt; het bestaat niet; het is niet echt kunstmatig; het is niet echt intelligent; het is niet belangrijk; het is allemaal een hype; het is niet relevant; het is een machtsspel; het is een voorbijgaande rage. AI kan geen goed nummer of een goed filmscript schrijven. AI heeft geen emoties. AI is slechts een illusie van antropomorfisme. AI is slechts statistiek, alleen wiskunde, alleen maar gradiëntafdaling. AI is verheerlijkte autocomplete. AI is niet belichaamd en daarom niet betekenisvol intelligent. Deze of gene techniek zal niet werken, werkt niet – en als hij werkt, is het niet wat het lijkt.
Ontkenning is voorspelbaar. Wanneer ze worden geconfronteerd met iets ongewoons, verontrustends, levensbedreigends of iets dat eerder gekoesterde overtuigingen ondermijnt, is het begrijpelijk dat mensen de geldigheid van die anomalie in twijfel trekken. De initiële hypothese voor collectieve berechting zou moeten zijn dat iets dat ogenschijnlijk ongekend is, misschien niet is wat het lijkt.
De eerlijkheid gebiedt te zeggen dat vele vormen van ontkenning cruciaal zijn en zijn geweest bij het aanscherpen van het begrip van wat machine-intelligentie wel en niet is, kan zijn en niet kan zijn. De paradigmatische verschuiving van logische expertsystemen naar diepgaand leren is bijvoorbeeld het gevolg van precieze en meedogenloze weerleggingen van de propositionele claims van sommige eerdere benaderingen.
Tegenwoordig zijn er verschillende vormen van AI-ontkenning. De meeste verschillen van het ontkennen van de klimaatverandering – waarbij alternatieve ‘feiten’ koppig worden verzonnen om te passen bij een geprefereerde kosmologie – maar meer dan een paar zijn dat wel. AI-ontkenners zullen voorbeelden uitkiezen, doelpalen verplaatsen en alles doen om te voorkomen dat ze accepteren dat hun waargenomen vijanden misschien wel gelijk hebben.
Soorten AI-ontkenning kunnen grofweg worden gecategoriseerd als: fenomenologisch, politiek en procedureel.
De filosoof Hubert Dreyfus betoogde dat intelligentie alleen kan worden begrepen door de lens van belichaamde ervaringen, en de fenomenologische ontkenning van AI bouwt hierop op veel manieren voort: “AI kan niet echt intelligent zijn omdat het geen lichaam heeft.” Deze kritiek is vaak expliciet antropocentrisch. Als een soort populistische variant van de Turing-test vergelijkt het de menselijke ervaring met die van een machine en concludeert het dat de voor de hand liggende verschillen tussen hen de precieze maatstaf zijn van hoe onintelligent AI is.
“AI kan geen geweldige opera schrijven, geen geweldig schilderij schilderen, prachtige Japanse poëzie creëren, enz.” Meestal kan de persoon die deze slam-dunk-kritiek uitbrengt, ook geen van deze dingen doen en toch zou hij zichzelf waarschijnlijk als intelligent beschouwen.
Misschien wel de meest direct tot uitdrukking gebrachte ontkenning wordt geboden door de beknopte slogan “ AI is noch kunstmatig, noch intelligent .” Pakkend. Vreemd genoeg maakt deze criticus zijn standpunt door te zeggen dat AI opzettelijk is vervaardigd uit tastbare minerale bronnen (een goede definitie van ‘kunstmatig’) en voornamelijk doelgericht gedrag vertoont op basis van stochastische voorspellingen en modellering (een aanzienlijk deel van elke definitie van ‘kunstmatig’). intelligentie”, van William James tot Karl Friston ).
“Het is gewoon stochastisch redeneren, geen echt denken” is ook de conclusie van het beruchte artikel dat AI vergeleek met papegaaien – opmerkelijk genoeg om te suggereren dat AI daarom niet intelligent is. Gaandeweg wijzen deze auteurs de computationele neurowetenschappen kordaat af als louter ideologische paradigma-inflatie die alles als ‘computergebruik’ beschouwt. Dit gebaar wordt geradicaliseerd door een andere schrijver die zelfs concludeert dat op neurale netwerken gebaseerde modellen van natuurlijke en kunstmatige intelligentie zelf een list zijn van het neoliberalisme.
Dergelijke critici schakelen snel heen en weer tussen AI is niet echt en AI is onwettig omdat het wordt gemaakt door kapitalistische bedrijven, en de eerste bewering wordt duidelijk namens de laatste gemaakt. Beklemtonen dat AI niet reëel is, is daardoor vaak een politiek statement, passend bij een epistemologie waarvoor dergelijke vragen intrinsiek machtsonderhandelingen zijn.
Voor hen is er geen praktische tegenspraak als ze zeggen dat AI tegelijkertijd ‘niet echt’ is en ook dat het ‘echt maar gevaarlijk’ is, omdat ‘wat AI eigenlijk is ’ irrelevant is in vergelijking met ‘wat AI feitelijk doet ’ en wat AI feitelijk doet. AI beperkt zich tot een sterk gefilterde reeks negatieve voorbeelden die zogenaamd het geheel vervangen.
Anders gezegd: AI zou “niet echt” zijn, omdat dit een signaal is van een contra-hegemonistische politiek. In het slechtste geval leidt deze gedachtegang tot AI Lysenkoïsme, een militante verloochening van iets heel reëel ten behoeve van antikapitalistische verplichtingen.
Andere AI-critici die intellectuele inzetten met hoge inzet hebben gemaakt tegen deep learning, transformerende architecturen, zelfaandacht of ‘schaal is alles wat je nodig hebt’-benaderingen hebben een parallelle maar meer persoonlijke motivatie. Dit wordt geïllustreerd door wat Blaise Aguera y Arcas “The Marcus Loop” noemt, naar de deep learning-scepticus Gary Marcus .
De cyclus gaat als volgt: eerst zeg je dat X onmogelijk is, dan gebeurt X; dan zeg je dat X niet echt telt omdat Y; dan zeg je dat X elk moment kan crashen of mislukken, maar als dat niet het geval is en eerder breed wordt overgenomen, zeg je dat X eigenlijk heel slecht is voor de samenleving. Dan overdrijf je en maak je online ruzie en geef je in geen geval toe dat je het bij het verkeerde eind had.
Voor Marcus is deep learning sinds 2015 zes maanden verwijderd van uitputting als fundamentele methode , maar de doelwitten van zijn vele scheldwoorden slapen rustig in de wetenschap dat miljoenen mensen AI elke dag op allerlei manieren gebruiken die op een of ander moment Gary Marcus zei dat het onmogelijk zou zijn.
Woede
Symptomatische uitspraken: AI is een politieke, culturele, economische en/of existentiële bedreiging; het bedreigt de toekomst van de mensheid; er moet collectief, individueel, actief en soms met geweld tegen worden opgetreden; de “vonk van de mensheid” moet worden verdedigd tegen de tastbare schade van bovenaf en van buitenaf; AI is in wezen begrijpelijk vanuit een handvol negatieve recente voorbeelden; AI is een symbool van controle en hiërarchie en verzet zich daarmee tegen de strijd voor vrijheid en autonomie.
Woede als reactie op AI is gebaseerd op zowel gerechtvaardigde als ongegronde angst. Dat wil zeggen dat woede zich misschien minder concentreert op wat AI doet dan op wat AI betekent , en vaak raken die twee door elkaar.
Soms wordt AI benaderd als een monolithische entiteit, zowel een uniek symbool van macht als echte technologie; andere keren wordt het afgeschilderd als het hoogtepunt van historische zonden. Daarom kan het politieke mandaat van AI Denial vaak overlappen met AI Anger, zelfs als ze elkaar tegenspreken.
Gezien de recente geschiedenis zijn er genoeg redenen om op uw hoede te zijn voor AI zoals deze momenteel wordt geconfigureerd en ingezet. Terugkijkend waren de jaren 2010 een bijzonder vruchtbaar tijdperk voor politiek populisme van velerlei overtuigingen.
Douglas Rushkoff heeft de populistische woede tegen de sociale veranderingen als gevolg van de digitalisering van de samenleving vastgelegd (en gevierd) in zijn boek uit 2017 ‘ Throwing Rocks at The Google Bus ’. “ Fuck Google !” was de in Kruetzberg gevestigde activistische groep/meme die probeerde haar prille woede te kanaliseren tegen de entiteit die een idyllische (voor sommigen) Berlijnse levensstijl zou verstoren, gebaseerd op goedkope huur en goedkope muziek.
In die jaren werd een script verduidelijkt dat vandaag de dag voortleeft. In San Francisco stak een bende tijdens het nieuwe maanjaar een zelfrijdende auto in brand, een daad die zowel symbolisch als superletterlijk is.
het script niet specifiek op AI was gericht, maar op Big Tech in het algemeen, kan het onderscheid inmiddels discutabel zijn. Voor deze conflicten wordt in de geest van slechts één van de strijders een slagveld getekend, en ‘AI’ is de naam die wordt gegeven aan het oedipaliseerde superego waartegen de moedige, soevereine mens kan strijden: David valt Goliath aan zodat hij David kan zijn .
AI Woede kan een ideologisch thema hebben, maar het is agnostisch ten aanzien van welke ideologie, zolang aan bepaalde anti-establishmentvoorwaarden wordt voldaan. De ideologen van reactionair rechts vinden een gemeenschappelijke zaak met die van progressief links en het reguliere centrum, omdat ze allemaal standvastig blijven tegen het opkomend tij dat hun favoriete status quo uitdaagt.
Voor de reactionairen is wat er op het spel staat in de strijd tegen AI niets minder dan de letterlijke ziel van de mensheid , een kostbare vonk die wordt weggevaagd door golven van computationele secularisatie en waarvoor een spirituele strijd moet worden gevoerd . Hun argumenten tegen geavanceerde AI die inbreuk maakt op het menselijke zelfbeeld zijn gekopieerd van die tegen heliocentrisme, evolutie, abortus, klonen, vaccins, transgenderisme, in-vitrofertilisatie, enz.
Hun wachtwoord is minder soevereiniteit of keuzevrijheid dan waardigheid . Die menselijke vonk – die flikkert naar het beeld van een Abrahamitische God – wordt door de moderne technologie gedoofd , en dus is de strijd zelf niet alleen heilig, maar ook goddelijk.
Voor links daarentegen is die menselijke vonk vitalistisch (altijd politiek , vaak abolitionistisch van aard, soms onsamenhangend paranoïde ), terwijl ze voor het centrum historisch is (en gewoonlijk wordt voorgesteld als tijdelijk belegerd of als een ‘ einde ’ naderend).
Ze delen allemaal minstens drie dingen: een gemeenschappelijk doel bij het verdedigen van hun favoriete versie van menselijk exceptionisme , de overtuiging dat hun kant AI moet ‘winnen ’ als strijd om maatschappelijke zelfrepresentatie , en dat ze, als culturele posities, worden aangescherpt en versterkt door de algoritmische processen waartegen zij zichzelf definiëren.
Onderhandelen
Symptomatische uitspraken: AI is een krachtige kracht die kan, moet en zal worden gecontroleerd door middel van mensgerichte ontwerpethiek en democratische en technocratische afstemming op vanzelfsprekend consensuele gedeelde waarden, gerealiseerd door beleidsvorming en soevereine wetgeving. De voor de hand liggende uitdagingen voor de informatieve, technologische en epistemische grondslagen van moderne politieke en juridische instellingen zijn een tijdelijke anomalie die kan worden verzacht door middel van culturele interventie, gericht op bestaande culturele platforms tegen degenen die AI maken.
Als je volhoudt dat machine-intelligentie eenvoudigweg het nieuwste type digitale tool is, dan is het besturen ervan door middel van beleid eenvoudig. Als het echter om iets fundamentelers gaat, vergelijkbaar met de ontwikkeling van het internet of de eerste computers – of nog dieper, een fase in de kunstmatige evolutie van intelligentie als zodanig – dan kan het temmen van AI door middel van ‘beleid’ op zijn best een oplossing zijn. , ambitieus.
Zelfs als het op de korte termijn succesvol is, is het onder staatscontrole houden van AI-bedrijven niet hetzelfde als het beheersen van AI zelf op de lange termijn. Terwijl kernwapens een bekende entiteit waren en konden worden beheerst door internationale verdragen omdat hun destructieve effecten duidelijk begrepen waren (zelfs als hun geopolitieke effecten dat niet waren), is AI geen bekende entiteit. Het is niet duidelijk wat de gevolgen ervan zullen zijn, of zelfs, in de diepste zin, wat AI is . Daarom zal interventionistisch beleid , hoe goedbedoeld en goed doordacht ook, onbedoelde gevolgen hebben, die aan beide kanten werken.
AI-onderhandelen is de voorkeurshouding van het politieke en juridische establishment, voor wie complexe kwesties kunnen worden gereduceerd tot rechten, aansprakelijkheden, jurisprudentie, beleidswitboeken en adviesraden.
Maar het is ook de publieke consensus van het ‘verstandige centrum’ van de technische wereld. De aanpak is geformuleerd in de taal van ‘ethiek, ‘mensgerichtheid’ en ‘afstemming’. Stanfords belangrijkste AI-beleids- en onderzoeksinstituut heet letterlijk Human-Centered Artificial Intelligence . Naast een eerbetoon aan het milquetoast-humanisme en het standaard-antropocentrisme, berust de aanpak op fragiele veronderstellingen over de relatie tussen onmiddellijke politieke processen en de technologische evolutie op de lange termijn.
Voor AI Bargaining wordt de westerse ‘ethiek’, een raamwerk gebaseerd op juridisch individualisme en de filosofische secularisatie van het Europese christendom, voorgesteld als zowel een noodzakelijk als voldoende middel om AI in de richting van het sociale welzijn te sturen. In de praktijk omvat AI-ethiek zowel verstandige als zinloze inzichten, maar wordt beperkt door de veronderstelling dat slechte resultaten het resultaat zijn van verkeerd gekalibreerde bedoelingen van duidelijk gedefinieerde actoren.
De op de opzettelijkheid gerichte kijk op de geschiedenis is handig maar oppervlakkig. De kern van de remediërende methodologie is het ‘werken met gemeenschappen’ of het houden van burgervergaderingen om ‘wensen’ en ‘niet willen’ te peilen en deze te indexeren en in het proces te betrekken, alsof controlemechanismen over de toekomst van AI lineair en het enige dat gecorrigeerd moet worden is de democratische kwaliteit van de input.
Er is veel kritiek op het “techno-solutionisme” – sommige zijn goed geformuleerd en andere helemaal niet. Politiek oplossingsdenken – gedefinieerd als de veronderstelling dat het ‘politiseren’ van iets dat niet ontvankelijk is voor de temporele cyclus van de huidige gebeurtenissen, en het ondergeschikt maken ervan aan beschikbare of denkbeeldige politieke beslissingen – is echter net zo slecht, zo niet erger. Als je naar het Congres of de vice-president kijkt , word je niet overweldigd door het vertrouwen dat dit werkelijk de piloten van de toekomst zijn waarvan we denken dat ze dat willen.
Terwijl het Congres bijeenkomt voor de camera’s en beelden genereert van hen die AI zeer serieus nemen, is de metaboodschap dat deze gekozen avatars feitelijk de leiding hebben over AI – en misschien om zichzelf ervan te overtuigen dat ze dat wel zijn. Het uitgangspunt is dat moderne regeringen zoals wij die kennen de uitvoerende macht zijn van de komende transformaties en niet een institutionele vorm zijn die zal worden herzien als ze niet door hen wordt geabsorbeerd. In positieve of negatieve zin kan het laatste scenario plausibeler zijn.
Naast het aannemen van wetten betekent AI-onderhandelingen ook de ‘afstemming’ van AI met ‘menselijke waarden’, een doelstelling die ik in twijfel heb getrokken . De veronderstelling is dat de evolutie van machine-intelligentie geleid zal worden door ervoor te zorgen dat deze zo antropomorf en sociomorf mogelijk is, een technologie die op overtuigende wijze presteert als een onderdanige spiegelversie van de gebruiker.
De sprong in het diepe dat menselijke waarden vanzelfsprekend, methodologisch vindbaar en uitvoerbaar, constructief en universeel zijn , is de fragiele basis van het afstemmingsproject. Het balanceert op het idee dat het mogelijk zal zijn om gemeenschappelijke zorgen te identificeren, gemeenschappen te ondervragen over hun waarden en studies uit te voeren over de ethiek van mogelijke consumentenproducten, dat het mogelijk en wenselijk zal zijn om ervoor te zorgen dat de aardbeving op het gebied van de intelligentie zo comfortabel mogelijk zal zijn. voor zoveel mogelijk mensen op zoveel mogelijk manieren.
De onderliggende overtuiging is dat AI enigszins ontvankelijk is voor dit soort benaderingen. Deze fase van verdriet houdt vast aan de hoop dat als we beginnen te onderhandelen over de toekomst, de toekomst geen andere keuze zal hebben dan ons halverwege tegemoet te komen. Als maar.
Depressie
Symptomatische uitspraken: Het kan al te laat zijn om de mensheid te redden van een existentiële crisis tot en met uitsterven als gevolg van de intrinsiek vraatzuchtige aard van AI, het competitieve karakter van menselijke samenlevingen dat erdoor wordt versterkt, de onderliggende uitdagingen van een veelvoudige polycrisis (waarvan hedendaagse AI een symptoom is) en/of de onmiddellijke politieke en economische tegenstellingen van AI’s eigen productiemiddelen, die leesbaar zijn in gevestigde termen van politieke economie. Het huidige moment gaat vooraf aan onvermijdelijke en catastrofale uitkomsten volgens de wetten van de geschiedenis.
Misschien hebben mensen, door zelfs maar de naam ‘AI’ uit te spreken, hun uitsterven al gegarandeerd. Kus uw dierbaren en houd ze stevig vast, vul uw rantsoenen aan en wacht op de onvermijdelijke superintelligentie, kwaadwillig en door mensen geobsedeerd, om te bevestigen of u wel of niet het merkteken van het beest draagt en om aldus over uw voorzienigheid te beslissen.
Volgens deze angst kan het zijn dat AI uiteindelijk verantwoordelijk zal zijn voor miljoenen of zelfs miljarden doden. Het is ook mogelijk dat dit er verantwoordelijk voor zal zijn dat miljarden toekomstige mensen helemaal nooit geboren zullen worden, aangezien het mondiale vervangingsgeboortecijfer in een ‘ volledig geautomatiseerde luxe ’ samenleving, ruim onder de één, zakt, waardoor er voor de 2 miljard mensen een planeet vol lege huizen overblijft. of zo menselijke aardbewoners die een stillere, groenere en meer geriatrische en robotachtige planeet bevolken.
In tegenstelling tot het malthusianisme is dit scenario van bevolkingsdaling te wijten aan generieke welvaart, en niet aan wijdverbreide armoede. Misschien wordt dit uiteindelijk een van de belangrijkste toekomstige bijdragen van AI aan het beperken van de klimaatverandering? Utopie of dystopie is in het oog van de toeschouwer.
Voor AI Doomers – een term die soms met trots en soms pejoratief wordt gebruikt en wiens focus het is om de toekomst te verdedigen tegen dreigende, waarschijnlijke en/of onvermijdelijke AI-catastrofes – schuilt er een zekere voldoening in de competitieve verwoording van extreme en deprimerende uitkomsten. Hoop koesteren is voor dupes.
Deze beweging van elite-preppers maakt grappen over Roko’s Basilisk en nieuwe variatiemotieven van ijle wankery: eschatologisch, moraliserend, zelfgenoegzaam . Het Doomer-discours trekt velen aan die diep verbonden zijn met de AI-industrie, omdat het impliceert dat als AI de mensheid werkelijk op de rand van uitsterven brengt, degenen die daarvoor de leiding hebben zeer belangrijke mensen moeten zijn. Onze collectieve toekomst ligt in de handen van deze laatste hoofdrolspelers . Wie zou zich niet laten verleiden door een dergelijke beschuldiging?
Aan de andere kant van de technologiecultuuroorlog is een ander genre van AI-depressie het orthodoxe discours voor een scholastisch establishment dat de wet, de overheid en de vrije kunsten omvat en de technologie ziet als een criminele bedreiging voor zijn eigen natuurlijke plicht om toezicht te houden op de samenleving en deze te vertellen. Van The Atlantic tot LOGIC(S) , van het Berkman Klein Center aan de Harvard Law School tot RAND , ze stellen zichzelf voor als de democratische underdog die tegen de macht vecht, zonder zich ooit af te vragen of hun culturele en institutionele positie , meer dan de vroegtijdige usurpatie van Californië, daadwerkelijk de Stroom.
Voor andere kampen zouden de basisprincipes van High Doomerism geassocieerd kunnen worden met Nick Bostrom en het inmiddels overleden Future of Humanity Institute van de Universiteit van Oxford – maar waar hun oorspronkelijke onderzoek naar existentiële risico’s zich expliciet richtte op catastrofes met een lage waarschijnlijkheid, kreeg het lage waarschijnlijkheidsdeel te maken met aan de kant gezet ten gunste van niet alleen een op hol geslagen AI met grote waarschijnlijkheid, maar ook een onvermijdelijke, op hol geslagen, superintelligente AI.
Waarom deze slip? Misschien komt het omdat de voorbestemde, op hol geslagen, superintelligente AI al een belangrijk personage was in het popdiscours, en dus betekende het oproepen van de naam niet de afgelegen ligging, maar de onontkoombaarheid ervan.
Hiervoor kan Bostrom Ray Kurzweil bedanken , die jarenlang de observatie van wederzijds versterkende technologische convergentie vermengde met evangelische transhumanistische transcendentie voordat de meeste mensen AI serieus als iets echts namen. Depressie (of opgetogenheid) is een rationele reactie op een vooraf bepaalde realiteit, zelfs als vooraf bepalen geen rationele interpretatie van die realiteit is.
Het is deze schommeling tussen het onvermijdelijke en het onvermijdelijke die de sleutel kan zijn tot het begrijpen van de depressievorm van AI-verdriet. Bedenk dat een ander type depressie de manische depressie is, die zich manifesteert als de neiging om van en naar de uitersten van euforie en wanhoop te gaan. De hoefijzertheorie in de politiek verwijst naar de neiging van extreemlinkse en extreemrechtse politieke standpunten om op zowel voorspelbare als verrassende wijze samen te komen .
hoefijzertheorie van AI-depressie ziet de fluctuatie tussen Messiaans verdriet en plechtige extase voor wat komen gaat, wat zich vaak manifesteert in dezelfde persoon, dezelfde blog, dezelfde subcultuur, waar het publiek dat de boodschap toejuicht dat AI-transcendentie nabij is, zelfs zal klappen. moeilijker wanneer de belofte van verlossing verandert in een apocalyps.
Aanvaarding
Symptomatische uitspraken: De uiteindelijke opkomst van machine-intelligentie kan het resultaat zijn van diepere evolutionaire krachten die de conventionele historische referentiekaders te boven gaan; de implicaties ervan op de lange termijn voor de intelligentie van de planeet kunnen onze beschikbare woordenschat te boven gaan. Acceptatie heeft haast om af te treden. Acceptatie herkent de toekomst in het heden. Waar anderen chaos zien, zien zij onvermijdelijkheid.
De laatste maar niet noodzakelijkerwijs laatste fase is AI-acceptatie, een houding die niet noodzakelijkerwijs beter of slechter is dan de andere. Acceptatie van wat? Vanuit het perspectief van de andere stadia kan het de acceptatie betekenen van iets dat niet echt is, iets dat ontmenselijkt, dat domineert, dat onheil voorspelt, dat een gimmick is, dat goed met de vinger moet worden gekwispeld.
Of acceptatie kan betekenen dat we begrijpen dat de evolutie van machinale intelligentie niet meer of minder onder politieke controle staat dan de evolutie van natuurlijke intelligentie. De ‘kunstmatigheid’ ervan is reëel, essentieel, polymorf en maakt ook deel uit van een lange boog van de complexiteit van intelligentie, van ‘ bacteriën tot Bach en terug ’ in de woorden van wijlen Daniel Dennett, een die menselijke samenlevingen meer drijft dan dat zij wordt gedreven. door hen.
Acceptatie vraagt: bevindt AI zich binnen de menselijke geschiedenis of bevindt de menselijke geschiedenis zich binnen een biotechnologisch evolutionair proces dat de grenzen van onze traditionele, parochiale kosmologieën overschrijdt? Zijn onze culturen een oorzaak of een gevolg van de materiële wereld? In welke mate is de menselijke kunstmatige intelligentie via taal (zoals bij een LLM) een nieuwe techniek om machine-intelligentie te maken, en in welke mate is het een ontdekking van een generieke kwaliteit van intelligentie, een kwaliteit die uiteindelijk zou gaan werken, telkens wanneer iemand ergens de moeite genomen om het uit te zoeken?
Als dat laatste het geval is, is AI een stuk minder contingent en minder sociaalmorf dan het lijkt. Er zijn grote geesten nodig om de stukken te naaien, maar uiteindelijk zou iemand het doen. De uitvinders ervan zijn minder Prometheaanse supergenieën dan alleen de mensen die er toevallig bij waren toen een of ander intrinsiek aspect van intelligentie functioneel werd gedemystificeerd.
Acceptatie wordt gekweld door deze vragen, over haar eigen keuzevrijheid en de illusies die dit met zich meebrengt. Hoe ver moeten we teruggaan in de geschiedenis van de technologie en de mondiale wetenschap en samenleving voordat de afhankelijkheden van het pad zwaarder wegen dan alle onvoorziene omstandigheden?
Zoals alle complexe technologieën is AI opgebouwd uit veel eenvoudigere eerdere technologieën, van calculus tot datacenters. Veel is contingent. Gemaksbeslissingen worden versterkt door positieve feedback, zoals wijzers die ‘ met de klok mee ’ bewegen, vastlopen en na verloop van tijd componenten worden van grotere platforms die natuurlijk lijken maar willekeurig zijn. Het toeval loopt op de rails: het komt allemaal samen op een punt waarop de extreme contingentie onvermijdelijk wordt.
Als je digitale computers krijgt plus inzicht in biologische neurale netwerken plus genoeg data om taalkundige morfemen te tokeniseren plus goedkope en snelle hardware om zelfrecursieve modellen uit te voeren op een schaal waarop een willekeurig aantal ontwikkelaars eraan kan werken, enzovoort, dan is er een echte vorm van kunstmatige intelligentie die op een abiotisch substraat draait, uiteindelijk zal verschijnen? Niet noodzakelijkerwijs de AI die we nu hebben – zoals die nu is – maar uiteindelijk iets ?
Zodra een intelligente soort de vermogens tot abstractie en communicatie ontwikkelt die mensen associëren met de prefrontale cortex, is zoiets als schrijven dan een uitgemaakte zaak? Toen het schrift eenmaal in Sumerië opkwam, eerst kwantitatieve en vervolgens kwalitatieve abstracties vastlegde, toen verscheen de drukpers en veel later werd elektriciteit aangewend – is er een momentum in gang gezet dat op uiterst onmenselijke schaal doorwerkt?
Als de calculus eenmaal was geformaliseerd en de industriële machines op grote schaal waren geassembleerd, zou de moderne computer dan ooit tot stand komen als iemand Liebniziaanse binaire logica op beide zou toepassen? Zodra mensen computers met elkaar gingen verbinden en één log, maar werkbaar netwerkprotocol kozen, zou er zoiets als ‘het internet’ ontstaan. Het had anders kunnen gaan, maar het zou gaan; de namen en data zijn toevallig, bijna willekeurig.
Voor de AI-acceptatiefase van rouw is de sleutelterm voor troost onvermijdelijkheid . Het tilt een gewicht op. Hiervoor kan de wereld niet anders zijn dan hoe zij is. Zoete uitgave. Is dit acceptatie of berusting? Is dit een Copernicaanse omkering van de oorzaak-en-gevolg-relatie tussen opzettelijke menselijke tussenkomst (nu gevolg) en planetaire processen (nu oorzaak) – of is het een al te menselijke naturalisatie van die uitkomsten als theodisch vastgelegd? Is dit, in termen van de stadia van Kubler-Ross, de acceptatie van iemand die rouwt? Rouwen om wat precies? Hun eigen existentiële doel?
Bij rouw is de traumareactie het geloven dat wat zo is , en dus is er geen schuldgevoel omdat er geen vrijheid is, geen teleurstelling omdat er geen alternatief is. Maar dit is niet de enige manier om te erkennen dat het heden niet autonoom is ten opzichte van het verleden en de toekomst, en dat zelfs wat zeer krachtige beslissingen lijken, binnen bepaalde beperkingen worden genomen, of ze zich dat nu realiseren of niet.
We kunnen dit ‘niet-rouw’ noemen. De conclusie die het trekt is heel anders. Het is niet zo dat de vorm van AI die we nu hebben onvermijdelijk is, maar eerder dat de AI die we nu hebben zeer zeker niet de vorm van AI is die gaat komen. De les is om het heden niet te concretiseren, noch als gevolg, noch als oorzaak.
Niet-rouw
Elke fase van rouw drukt niet alleen bezorgdheid uit, maar ook inzicht, zelfs als de beweringen niet kloppen. Als we vanuit de nabije toekomst terugkijken op deze jaren, zien we misschien andere dingen. ‘Hadden we maar naar de Cassandra’s geluisterd!’ Of: “Wat dachten ze in godsnaam en waarom praatten ze zulke onzin?” Er zijn ‘niet-verdriet’-manieren om door een filosofie van kunstmatige intelligentie te denken die noch optimistisch, noch pessimistisch, utopisch of dystopisch zijn. Ze benadrukken de verzoening van het Copernicaanse trauma van wat AI betekent met nieuwe inzichten over ‘leven’, ‘technologie’ en ‘intelligentie’.
Het verkennen van de vervagende grenzen tussen deze termen is onderdeel van het werk van het Antikythera -onderzoeksprogramma dat ik leid, geïncubeerd door het Berggruen Instituut (de uitgever van Noema), vooral onze samenwerking met de astrobioloog en theoretisch natuurkundige Sara Walker, die hierover schreef in een buitengewoon stuk in Noema genaamd “ AI Is Life. ‘Leven’ wordt niet begrepen als de unieke kwaliteit van een enkel organisme, maar als het proces van evolutionaire lijnen over miljarden jaren. Maar ‘technologie’ evolueert ook, en staat ontologisch niet los van de biologische evolutie, maar maakt er eerder deel van uit, van ribosomen tot robotica.
Elke technologie bestaat alleen omdat de levensvorm die nodig is om het mogelijk te maken, bestaat – maar tegelijkertijd zorgen technologieën ervoor dat bepaalde dingen bestaan die zonder deze niet mogelijk zouden zijn. Volgens Walker is het allemaal “selectie” – en dat omvat in hoge mate ook mensen, wat mensen maken en zeker wat mensen maakt. ‘Net zoals we een deel van onze zintuiglijke waarnemingen uitbesteden aan technologieën die we in de loop van de eeuwen hebben ontwikkeld,’ schreef ze, ‘besteden we nu een deel van het functioneren van onze eigen geest uit.’
James Lovelock wist dat hij stervende was toen hij zijn laatste boek schreef, Novacene: The Coming Age of Hyperintelligence , en hij besluit zijn eigen persoonlijke levenswerk met een hoofdstuk dat sommige van de meer mystiek ingestelde bewonderaars van de Gaia-theorie moet doen schrikken. Hij rapporteert kalm dat het leven op aarde zoals wij dat kennen mogelijk plaats maakt voor abiotische vormen van leven/intelligentie, en dat wat hem betreft prima is .
Hij vertelt ons heel direct dat hij graag afscheid wil nemen van deze sterfelijke spiraal, wetende dat het tijdperk van het menselijke substraat voor complexe intelligentie plaats maakt voor iets anders – niet als transcendentie, niet als magie, niet als nivellering, maar eenvoudigweg als een faseverschuiving in precies hetzelfde voortdurende proces van selectie, complexiteit en aggregatie dat ‘leven’ is, dat zijn wij.
Een deel van wat Lovelock vrede gaf met zijn conclusie is, denk ik, dat wat het AI Copernican Trauma ook betekent, het niet betekent dat mensen irrelevant zijn, vervangbaar zijn of in oorlog zijn met hun eigen creaties. Geavanceerde machine-intelligentie suggereert niet dat we uitsterven, noch als een nobele troonsafstand, noch als insecten die de leegte in schreeuwen.
Het betekent echter wel dat de menselijke intelligentie niet is wat de menselijke intelligentie al die tijd dacht dat het was. Het is iets dat we bezitten, maar dat ons nog meer bezit. Het bestaat niet alleen in individuele hersenen, maar nog meer in de duurzame communicatiestructuren daartussen, bijvoorbeeld in de vorm van taal .
Net als ‘leven’ is intelligentie modulair, flexibel en scalair, en strekt zich uit tot het ingenieuze werk van subcellulaire levende machines en tot in de diepten van de evolutionaire tijd. Het strekt zich ook uit tot veel grotere verzamelingen, waarvan ieder van ons deel uitmaakt, en ook een exemplaar. Er is geen reden om aan te nemen dat het verhaal bij ons zou of zou moeten eindigen; eschatologie is nutteloos. De evolutie van intelligentie bereikt niet zijn hoogtepunt bij één soort nomadische primaten die zich in terravormen bevindt.
Dit is het gelukkigste nieuws dat mogelijk is. Net als Lovelock is verdriet niet wat ik voel.