ChatGPT – Binnen de logische literaire figuren impliceert de oxymoron tegenstrijdigheid. Inderdaad: als we het zo vaak hebben over de “levende doden” (of zombies), vestigen we een totaal tegenstrijdig concept. Welnu: als we elke dag lezen dat een “kunstmatige intelligentie” (AI) een nieuw wonder heeft verricht, introduceren we een duidelijke tegenstrijdigheid, want die “intelligentie” is niet intelligent.
Het begrip intelligentie is niet eenduidig gedefinieerd, ondanks het feit dat millennia lang een groot aantal specialisten op het gebied van filosofie, fysiologie, wiskunde, natuurkunde, informatica, neurowetenschappen en psychologie hebben geprobeerd de essentiële aspecten ervan uit te leggen en af te bakenen.
In ieder geval stellen enkele van de belangrijkste eigenschappen van intelligentie die we goed herkennen, zoals bewustzijn of het vermogen om te denken, abstraheren, af te leiden of te begrijpen, ons in staat om de natuurlijke intelligentie van mensen gedeeltelijk te vergelijken met de kunstmatige intelligentie van machines.
We moeten verduidelijken dat moderne AI’s in wezen zeer nuttige hulpmiddelen zijn om het voor ons gemakkelijker te maken om sommige van onze activiteiten uit te voeren, maar ze zijn geen intelligentie, aangezien zelfs de meest elementaire kenmerken van intelligentie die we hebben opgesomd, ze helemaal niet bevatten.
Van de eerder genoemde kenmerken is gevolgtrekking misschien wel het gemakkelijkst te implementeren in een machine door middel van een algoritme, aangezien logica een van de solide takken van de wiskunde is en daarom op meerdere manieren in een computer kan worden geprogrammeerd.
Het redeneerproces: het voorbeeld van Sherlock Holmes
Afleiden is een oordeel of conclusie trekken uit een proces van logisch redeneren. Gevolgtrekking is iets dat we allemaal constant uitvoeren in ons dagelijks leven, en we kunnen ons afvragen of AI’s ook op een vergelijkbare manier afleiden.
Om dit concept beter te begrijpen, kunnen we ons wenden tot de beroemde literaire detective Sherlock Holmes. In de eerste roman van deze saga van Arthur Conan Doyle ( A Study in Scarlet in 1887) beschrijft dokter Watson in het tweede hoofdstuk “de wetenschap van deductie” van de hoofdpersoon. Echt, deductief redeneren in de wetenschap gaat uit van een theoretische hypothese, die voorafgaat aan waarnemingen of experimenten en eindigt met een bevestiging (of niet) van de oorspronkelijke hypothese.
Normaal gesproken gebruikt Sherlock Holmes inductieve redeneringen, gebaseerd op observaties die hem in staat stellen een hypothese en een theorie vast te stellen van de gebeurtenissen die daadwerkelijk hebben plaatsgevonden.
Als we wat verder gaan, in de tweede roman van de saga ( The sign of the four in 1890 ), geeft Sherlock Holmes in het zesde hoofdstuk een demonstratie en flapt hij eruit tegen Watson: “Hoe vaak heb ik je al verteld dat je elimineren wat onmogelijk is, wat overblijft moet de waarheid zijn, hoe onwaarschijnlijk het ook mag lijken? Dit type gevolgtrekking werd in 1878 door de wetenschapper en filosoof Charles S. Peirce “abductief redeneren” genoemd.
Deze redenering, opgenomen in de natuurlijke intelligentie van de mens, houdt in dat we ons voortdurend afvragen waarom iets gebeurt en hypothesen formuleren over plausibele oorzaken ervoor. Heel opvallend is dat geen van de huidige AI’s ook maar in de buurt komt van het uitvoeren van dit soort redeneringen, die bij ons zo gewoon zijn, en dat er hooguit grote databases en statistische berekeningen worden gebruikt om intelligentie te imiteren, maar zonder enige vorm van redenering. zoals die we hebben beschreven.
Begrijp de betekenis van wat er wordt gezegd of de betekenis van wat er gebeurt
Meer complexe ingrediënten van intelligentie, zoals ons vermogen om te begrijpen, zijn in de huidige AI’s totaal uitgesloten.
Ondanks alles kondigen veel bedrijven regelmatig “nieuwe generatieve kunstmatige intelligenties” aan, die in staat zijn om nieuwe en originele inhoud te “creëren”, zonder menselijke tussenkomst.
Eigenlijk zijn geen van deze tools intelligenties en geen van hen creëert iets zonder menselijke tussenkomst. En bovenal begrijpt geen van hen de werkelijkheid of wat die voortbrengt.
Het enige belangrijke kenmerk is dat deze programma’s ons kunnen helpen om teksten, illustraties, geluiden of synthetische video’s te verbeteren door de tools correct te gebruiken, net zoals wanneer we een camera, een foto-editor, een microfoon of een pen correct gebruiken. Het maken van een goede film gaat niet over het indrukken van een knop op een camera, net zoals het maken van een illustratie niet gaat over het simpelweg vragen aan een AI om een geweldig beeld.
Een van de bekendste tools in deze generatieve context is de populaire ChatGPT , een chatbot (conversatierobot) die is gebaseerd op computertraining door enorme encyclopedieën van teksten, geluiden, afbeeldingen of video’s.
Hoewel ChatGPT veel geavanceerder is dan waar we hieronder naar gaan verwijzen, is het illustratief om te onthouden dat in 1966 de wiskundige en professor computerwetenschappen aan het Massachusetts Institute of Technology (MIT), Joseph Weizenbaum, in zijn laboratorium een programma creëerde genaamd ELIZA in staat tot natuurlijke taalverwerking en dat we het vandaag zouden opnemen in chatbots .
Dit programma paste patroonherkenningsregels toe op de uitspraken die het ontving (zoeken naar trefwoorden in de zin van de gebruiker) om hun antwoorden te genereren en een modelzin uit zijn database te kiezen.
Zo kon ELIZA een gesprek met mensen beginnen door een empathische psycholoog na te bootsen. Weizenbaum modelleerde zijn gespreksstijl met behulp van open vragen om ‘patiënten’ aan te moedigen effectiever met de ’therapeut’ te communiceren, en was verrast dat zijn programma door veel gebruikers serieus werd genomen.
De auteur zelf was geschokt toen hij besefte dat ELIZA door een groot deel van het publiek werd geïnterpreteerd als een echte intelligentie en probeerde zijn hele leven deze misvattingen recht te zetten.
ChatGPT-bewonderaars
ChatGPT heeft tegenwoordig veel fans, maar hij is geen intelligentie en begrijpt niets van wat hij zegt. Naast vele andere onderzoekers hebben Gary Marcus, professor psychologie en neurowetenschappen, en Ernest Davis, professor computerwetenschappen, beiden van de New York University, ChatGPT-antwoorden bestudeerd op begrip, en hebben aangetoond dat elke vraag die begrip vereist om correct te kunnen worden beantwoord, kan leiden tot valse, onjuiste of ronduit verzonnen antwoorden. De antwoorden van ChatGPT op simpele vragen die enig begrip inhouden, zoals: “welke kleur heeft het witte paard van Santiago?” zijn opvallend.
Gebruik de tools goed
Misbruik van gereedschap kan gevaarlijk zijn. Veel mensen komen in de verleiding om ChatGPT rechtstreeks te vragen om een schoolkrant of krantenartikel over een bepaald onderwerp te schrijven. Dit resulteert in een ogenschijnlijk correcte tekst met een zeer overtuigende vorm. Het gebruik van grote, uit het hoofd geleerde en goed geschreven encyclopedieën stelt ons dus in staat een ogenschijnlijk zeer aanvaardbare tekst te verkrijgen.
Dit resultaat is echter noch een fatsoenlijke schoolkrant, noch een professioneel krantenartikel, maar meer een samenvatting van gegevens in tekstformaat die we zullen moeten verifiëren, bijvoorbeeld wanneer we een zoektocht naar informatie op internet starten. Als we de tool goed willen gebruiken om goed werk te leveren, moet alle informatie die ChatGPT ons heeft verstrekt worden gecontroleerd, beoordeeld, begrepen, gecorrigeerd en geredigeerd.
Beginnen met alle gezochte informatie in de vorm van een boeiende eerste tekst kan nuttig zijn, maar houd er rekening mee dat de inspanning die moet worden besteed aan de automatisch gegenereerde tekst om deze om te zetten in een echt intelligent artikel of artikel, het wellicht raadzaam maakt om serieus te studeren het onderwerp en vanaf nul schrijven, in plaats van een dubieus brouwsel verzonnen door een schijnbare AI.
Het misbruik van de tools heeft zich verspreid door de opwinding van de propaganda van de AI-leveranciers en leidt op veel gebieden tot grote problemen en verliezen.
Zo heeft het bekende tijdschrift Clarkesworld, dat onder andere uitstekende sciencefictionverhalen publiceert (waaronder Hugo, Nebula en Locus-prijzen zijn gewonnen, naast vele andere opmerkelijke vermeldingen) de opname van verhalen moeten sluiten vanwege het ontdekken van een toenemend aantal slechte teksten naar de uitgever gestuurd door auteurs die gewoon zonder enige schaamte wat ChatGPT-type AI gebruiken. Dit soort gedrag is echt beschamend en schadelijk voor de literatuur.
Momenteel integreren veel van de grote technologiebedrijven, zoals onder andere Google, Microsoft of Meta, dezelfde technologie in hun producten.
Misbruik van tools kan leiden tot ongewenste effecten, zoals die veroorzaakt door Microsoft’s Tay-product in 2016 of Meta’s Galactica in 2022, die beide een paar uur na hun release van de markt moesten worden gehaald. We kunnen ons afvragen wat er zou kunnen gebeuren als de webbrowsers van Google of Microsoft, Bing, ook deze technologie van het type GPT zouden bevatten.
Als het niet verstandig wordt gedaan, is de kans groot dat zoekopdrachten op internet erg overtuigend en goed geschreven zijn, maar onjuist of vol verkeerde informatie. Dit kan echt gevaarlijk zijn, omdat we momenteel, wanneer we geconfronteerd worden met een reeks webpagina’s die we van een zoekmachine verkrijgen, zelf de informatie kunnen evalueren en verifiëren, maar een reactie van de zoekmachine in de vorm van een schijnbare tekst, een deel van die onjuist, vals of verzonnen is. Het is niet betrouwbaar of nuttig.
Objectief gezien zijn AI’s geen intelligentie, maar eerder hulpmiddelen en, zoals elk hulpmiddel, moeten ze correct worden gebruikt.