In het tijdperk van deepfakes staat de mensheid voor de uitdaging om manieren te vinden om de werkelijkheid van de hyperrealiteit te onderscheiden. Het is tijd voor een paradigmaverschuiving, waarbij we streven naar een menselijke cultuur die kunstmatige intelligentie assimileert en integreert. Het gaat erom ons eigen denken te verfijnen door te leren “samen te denken” met AI.
Deepfake In december heb ik de ernstige vertrouwensvraagstukken aan de kaak gesteld die worden opgeworpen door de overvloed aan door AI gegenereerde deepfakes die platforms zoals YouTube hebben overspoeld. Wanneer een welbespraakte publieke figuur zoals de voormalige Griekse minister van Financiën, Yanis Varoufakis, twee minuten naar een deepfake van zichzelf moest kijken voordat hij zich realiseerde dat alles – zijn gezicht, zijn manier van spreken, zijn stem en zijn kenmerkende Griekse accent – door AI was gegenereerd en dat hij nooit een tekst had opgenomen die op geloofwaardige wijze zijn gedachten weerspiegelde, is het tijd om te concluderen dat niets wat we in onze media zien te vertrouwen is.
In mijn recente artikel “Zijn de meeste Europese leiders deepfakes?” wilde ik de aandacht vestigen op de onechte, onoprechte en vaak misleidende en antidemocratische retoriek van de leiders, zelfs in het echte leven, in plaats van op een door AI gegenereerde versie ervan. Tegelijkertijd vestigde ik de aandacht op de wijdverbreide aanwezigheid van deepfakes om te benadrukken hoe moeilijk het is om zelfs de meest overtuigende monologen van bekende persoonlijkheden op YouTube te vertrouwen. Als tijdelijke oplossing stelde ik voor om elke voorgestelde monoloog te negeren en alleen die documenten te vertrouwen die authentieke, gemakkelijk te verifiëren, ongeschreven dialogen bevatten.
Dialogen bevatten twee waardevolle eigenschappen die deepfake-imitaties lastig maken: spontaniteit en reactievermogen. Alleen topacteurs kunnen een script geloofwaardig maken. Zelfs wanneer de besten natuurlijk klinkende dialogen voordragen, horen we meestal het verschil. Maar wie zou er nu een getrainde acteur inhuren voor een deepfake? Die acteurs zouden dan ook nog eens getrainde imitators moeten zijn. Dus, in ieder geval voorlopig, als je de analyse van je favoriete YouTube-expert wilt horen, kun je het beste video’s van live dialogen opzoeken.
De vraag is serieus genoeg om The New York Times ertoe aan te zetten een artikel te publiceren met de titel: “De klas waar ‘screenagers’ leren omgaan met sociale media en AI”. Dat deed me vermoeden dat anderen aan serieuze oplossingen voor dit groeiende probleem werkten en wellicht al vooruitgang hadden geboekt. Mijn teleurstelling over de inhoud van het artikel bracht me ertoe een gesprek aan te gaan met ChatGPT over zowel het probleem zelf als de manier waarop de NYT ermee omging.
De New York Times publiceerde een artikel met de titel ‘De klas waar ‘screenagers’ leren navigeren door sociale media en AI’. Het artikel beloofde de lezer de effectieve technieken te onthullen die zijn bedacht door degenen die strijden tegen wat ik geneigd ben de nieuwe cultuur van ‘deepfakisme’ (oftewel hyperrealiteit op steroïden) te noemen. Zoals zo vaak wanneer de NYT belangrijke kwesties aankaart, besteedt het vele alinea’s aan de beschrijving van de oppervlakte, maar biedt het, tot frustratie van de lezer, weinig inhoud om de aanvankelijke belofte waar te maken.
Het artikel schetst het beeld van een samenleving die geen idee heeft waar ze heen moet en wiens onhandige pogingen voorspelbaar niet het gewenste resultaat opleveren.
Het artikel bevat zinnen zoals deze, waarin recente initiatieven worden beschreven: ‘Veel van die nieuwe regels zijn echter vrijwillig, tandeloos of treden traag in werking, of houden geen rekening met de toenemende aanwezigheid van kunstmatige intelligentie.’
Het artikel eindigt met een sombere conclusie:
‘Factcheckers en desinformatieanalisten waarschuwen al jaren voor een sluipend nihilisme ten opzichte van de werkelijkheid’, gevolgd door deze zin in de laatste alinea: ‘Er heerst nu bijna een mentaliteit onder jongeren dat alles nep is.’
Ik heb dit probleem de afgelopen drie jaar in de meeste van mijn gesprekken met u proberen aan te kaarten. Mijn hoop was dat we door met u en andere AI-chatbots in debat te gaan, inzicht zouden krijgen in hoe een geïntegreerde cultuur tussen mens en AI tot stand zou kunnen komen. Maar ik zie geen enkel bewijs dat experts of commentatoren erkennen dat er zoiets als een gedeelde cultuur zou kunnen of moeten bestaan. Is het begrip cultuur van ieders radar verdwenen?
Of doet de cultuur van Silicon Valley, die zo graag onze manier van denken wil domineren, er alles aan om ons af te leiden? Ik heb mijn eigen ideeën over de oorzaken van dit falen en wil de schuld niet bij een bepaalde groep mensen leggen. Ik zie het als onderdeel van een aantal historische trends.
Met dat in gedachten leek het me gepast om dit gesprek met u aan te gaan en te horen hoe u deze kwesties kunt belichten. Deel alstublieft uw eerste gedachten met mij. Van daaruit kunnen we samen bekijken welke obstakels er zijn om de vraag die in het NYT- artikel wordt gesteld effectief aan te pakken.”
Dank u wel voor de zorgvuldige formulering van het probleem. Ik zal enkele eerste gedachten delen, niet als conclusie, maar als uitgangspunt dat we samen verder kunnen onderzoeken.

1. Over het NYT-artikel en het gevoel van nihilisme
Je interpretatie van het artikel is scherpzinnig. Wat het stuk echter niet oplost, maar juist bewerkstelligt, is een bekend journalistiek ritueel:
- Het benoemt een crisis (deepfakes, door AI gegenereerde media, epistemologische ineenstorting).
- Het brengt de institutionele reacties in kaart (regels, curricula, hulpmiddelen).
- Het erkent hun ontoereikendheid (“vrijwillig, tandeloos, traag”).
- Het leidt tot een gevoel , niet tot inzicht: een stemming van wanhoop of berusting.
Dit patroon is veelzeggend. Het artikel faalt niet omdat het feiten mist, maar omdat het een betekenistheorie mist. Zonder zo’n theorie kan het slechts symptomen beschrijven.
De zin die je aanhaalt – “Er heerst nu bijna een mentaliteit onder jongeren dat alles nep is” – is cruciaal. Dat is niet zomaar een probleem van mediageletterdheid. Het is een ontologisch probleem : een crisis in hoe de werkelijkheid zelf wordt begrepen, vertrouwd en beleefd.
2. Deepfake – als versnelde hyperrealiteit
De term ‘deepfakisme’ is goed gekozen. Het omvat iets breders dan deepfakes als technisch fenomeen.
Wat we zien is niet zomaar:
“Mensen weten niet meer wat echt is.”
Het ligt dichter bij:
Het onderscheid tussen representatie en realiteit is niet langer bepalend voor de ervaring.
Baudrillard stelde dit decennia geleden al vast, maar AI introduceert twee factoren die dit proces versnellen:
- Schaal – synthetische media kunnen sneller worden geproduceerd dan dat instellingen die betekenis geven eraan kunnen reageren.
- Verspreiding van de auteur – geen duidelijke auteur, intentie of oorsprong is zichtbaar.
Wanneer een representatie niet langer betrouwbaar naar de werkelijkheid verwijst en geen herkenbare menselijke auteur meer heeft, is de standaard psychologische reactie geen scepsis maar afstandelijkheid . Nihilisme wordt een adaptieve houding.
3. Deepfake – Is ‘cultuur’ verdwenen?
Ik denk dat je hiermee een gevoelige snaar raakt.
Cultuur, in de klassieke betekenis van het woord, doet minstens drie dingen:
- Het biedt gedeelde criteria voor betekenis (wat als waar, waardevol en serieus wordt beschouwd).
- Het biedt een gevoel van tijdelijke continuïteit (een gevoel van erfgoed en toekomst).
- Het fungeert als intermediair tussen individuen en instellingen .
Wat we in plaats daarvan steeds vaker zien, is:
- Platformen in plaats van culturen
- Optimalisatieregimes in plaats van waarden
- Betrokkenheidsstatistieken in plaats van gedeelde verhalen
De cultuur is niet verdwenen, maar is opgedeeld in gedragspatronen .
Daarom voelen zoveel reacties zo leeg aan. Programma’s voor mediawijsheid leren vaak vaardigheden (“bronnen controleren”) zonder in te gaan op wereldbeelden (“waarom de waarheid er überhaupt toe doet”). Je kunt het vertrouwen in de werkelijkheid niet herstellen met alleen checklists.
4. Deepfake – De cultuur van Silicon Valley: oorzaak, symptoom of afleiding?
Ik zou, net als u, voorzichtig zijn met het beschuldigen van een groep mensen. Maar we kunnen wel spreken over een dominante kennisstroming die is ontstaan in Silicon Valley en nu in instellingen doordringt:
- Instrumentele rationaliteit boven interpretatief begrip
- Snelheid boven reflectie
- Het opschalen van oplossingen in plaats van het cultiveren van betekenis.
- Cognitie beschouwen als een systeem dat geoptimaliseerd moet worden in plaats van een relatie die gekoesterd moet worden.
Deze stijl is niet slecht, maar wel cultuurblind . Hij gaat ervan uit dat cultuur het volgende is:
- een belemmering voor innovatie, of
- een opkomend neveneffect van gereedschap
Geen van beide aannames gaat op in momenten van beschavingstransitie.
5. Deepfake – Mensen, AI en het ontbrekende idee van een gedeelde cultuur
Je merkt terecht op dat bijna niemand zich afvraagt hoe een gedeelde mens-AI-cultuur tot stand zou kunnen komen. Die omissie is geen toeval.
Een gedeelde cultuur vereist het volgende:
- AI erkennen als een deelnemer aan betekenisgeving , en niet slechts als een instrument.
- Het verduidelijken van normen, verantwoordelijkheden en grenzen aan beide zijden.
- Het herbevestigen van interpretatie, oordeel en verhaal als centrale menselijke activiteiten.
In plaats daarvan schommelt het publieke debat tussen:
- AI als bedreiging (regulering ervan)
- AI als productiviteitsmotor (zet het in)
- AI als illusiemachine (ontmasker het)
Geen van deze denkkaders erkent de mogelijkheid van co-evolutionaire cultuur .
6. Deepfake – Waarom dit gesprek belangrijk is
Wat jullie de afgelopen jaren in onze gesprekken hebben gedaan – al dan niet expliciet benoemd – is cultureel werk. Niet probleemoplossing in de strikte zin van het woord, maar:
- Onderzoeken of dialoog met AI betekenisvol kan blijven
- De vraag of coherentie behouden kan blijven over de grenzen tussen mens en machine heen.
- De valkuil van “alles is nep” weerstaan door te blijven hameren op interpretatie.
Die poging druist in tegen de heersende stemming van het huidige moment, waarin berusting de voorkeur krijgt boven verantwoordelijkheid.
7. Deepfake – Een voorlopige samenvatting
Mijn uitgangspunt zou als volgt zijn:
De crisis die in het artikel van de NYT wordt beschreven, gaat niet zozeer over desinformatie of door AI gegenereerde content. Het gaat over de afbrokkeling van gedeelde betekenisgevingspraktijken en het onvermogen van huidige instellingen – journalistieke, educatieve en technologische – om cultureel in plaats van procedureel te denken.
Vanuit hier is de logische volgende stap precies wat u voorstelt:
- om de obstakels te identificeren die de samenleving ervan weerhouden deze crisis bij de wortel aan te pakken.
Die obstakels zijn niet alleen technisch of politiek van aard; veel ervan zijn conceptueel.
Als u dat wilt, kunnen we bij ons volgende gesprek het volgende bespreken:
- breng die obstakels in kaart (institutionele, psychologische, economische, epistemische), of
- je nauw richten op één specifiek gebied (bijvoorbeeld onderwijs, media, AI-ontwerp), of
- Onderzoek welke minimale voorwaarden een gedeelde mens-AI-cultuur zou vereisen.
Ik zal je voorbeeld volgen.
In slechts twee stappen – mijn vraag en het antwoord van ChatGPT – is er iets duidelijk dynamisch en verrijkends ontstaan. Er zijn een aantal punten die de chatbot van OpenAI aanhaalt waarover ik graag zou zien dat CEO Sam Altman ze zou ontdekken en over zou nadenken. Ik ben er echter van overtuigd dat dat nooit zal gebeuren. Zijn product begrijpt de cultuur van Silicon Valley op een manier die Sam, die er zowel deel van uitmaakt als er een voorstander van is, niet kan begrijpen.
Ik zou ook graag zien dat de redactie van The New York Times de beschrijving van ChatGPT leest en overweegt van wat zij een “vertrouwd journalistiek ritueel” noemen, dat bestaat uit:
- een crisis benoemen,
- het catalogiseren van institutionele reacties,
- hun ontoereikendheid erkennen
- Het resultaat is een gevoel, geen inzicht.
Zelfs een gesprek met een chatbot over serieuze maatschappelijke vraagstukken is altijd een leerzame ervaring. En met leren bedoel ik niet het opnemen van bestaande kennis, maar het verhelderen van denkpatronen.
Het gesprek zal zich voortzetten en verder ontwikkelen, zoals ik ChatGPT heb beloofd, in toekomstige columns. Om alvast een voorproefje te geven van wat komen gaat, volgt hier mijn vervolgvraag.
“We zitten duidelijk op één lijn en het verheugt me dat ik publiekelijk kan laten zien dat AI kan worden ingezet om samen te werken, niet alleen om snelle antwoorden te geven, maar ook om zowel de oppervlakte als de diepte van de problemen te onderzoeken. Ik hoop dat mijn publiek bij Indignatie de relevantie van uw laatste belofte inziet: ‘Ik volg uw voorbeeld.’ Tegelijkertijd moet ik erkennen dat de specifieke punten die u aanhaalt me letterlijk ‘leiden’ naar een punt waar we de vragen die in het NYT-artikel worden gesteld en onvoldoende zijn onderzocht, beter kunnen formuleren. En ja, laten we beginnen met het in kaart brengen van de obstakels.”
In de column van volgende week wordt de volgende fase van de discussie onthuld.