Er komt een nieuw platform, er komen nieuwe juridische acties, de fragiele procederende partij staat altijd klaar om een dagvaarding uit te schrijven aan mensen met (bij voorkeur) diepe zakken. En zo blijkt dat platforms voor kunstmatige intelligentie (AI), ondanks alle genialiteit achter hun creatie, aan juridisch onderzoek en gerechtelijk verhaal toe zijn. Zeker, sommige particulieren raken behoorlijk geïrriteerd door wat bots als ChatGPT over hen genereren.
Een deel hiervan is toegeeflijk, narcistisch verlangen – je verdient wat je krijgt als je je naam aansluit op een AI-generator, in de hoop dat er lieve dingen over je worden gezegd. Het wordt zelfs komisch als het zoekplatform zelf vol zit met onnauwkeurigheden.
Een recent voorbeeld van interesse in het digitale koninkrijk is een dreigende rechtszaak tegen de OpenAI-chatbot. Brian Hood, burgemeester van Hepburn Shire Council in de Australische staat Victoria, werd gewaarschuwd voor onjuiste beschuldigingen van omkoping in een zaak die plaatsvond tussen 1999 en 2004 . Het betrof Note Printing Australia, een onderdeel van de Reserve Bank of Australia. Hood had bij Note Printing Australia gewerkt en had op de klok geluisd over steekpenningen aan buitenlandse autoriteiten. Hij werd nooit beschuldigd van de misdaad zelf. Door ChatGPT gegenereerde antwoorden suggereerden echter iets anders, waaronder de bewering dat Hood schuldig was bevonden aan de genoemde beschuldigingen van omkoping.
In een verklaring aan Ars Technica door Gordon Legal, het bedrijf dat Hood vertegenwoordigt, worden meer details gegeven. Onder de “verschillende valse verklaringen” die door de AI-bot zijn geretourneerd, zijn beweringen dat Hood “werd beschuldigd van het omkopen van functionarissen in Maleisië, Indonesië en Vietnam tussen 1999 en 2005, dat hij werd veroordeeld tot 30 maanden gevangenisstraf nadat hij schuldig had bevonden aan twee valse beschuldigingen”. boekhouding volgens de Corporations Act in 2012, en dat hij toestemming gaf voor betalingen aan een Maleisische wapenhandelaar die optrad als tussenpersoon om een contract met de Maleisische regering binnen te halen.”
James Naughton, een partner bij Gordon Legal, vertegenwoordigt Hood. “Hij is een gekozen functionaris, zijn reputatie staat centraal in zijn rol”, aldus de advocaat. “Het zou mogelijk een mijlpaal zijn in de zin dat het deze lasterwet toepast op een nieuw gebied van kunstmatige intelligentie en publicatie in de IT-ruimte.”
In maart schreven de juridische vertegenwoordigers van Hood een zorgbrief aan OpenAI, waarin ze eisten dat ze de geschetste fouten binnen 28 dagen zouden wijzigen, waarbij ze dreigden met laster tegen het bedrijf als ze dit weigerden.
De vraag is hier of de zogenaamd lasterlijke beschuldigingen van ChatGPT binnen het bereik van aansprakelijkheid kunnen vallen. De functionaliteit van de bot voor het genereren van feiten is momenteel vaag en elke gebruiker zou met dat feit bekend moeten zijn. Dat gezegd hebbende, blijven de meningen over reputatieaansprakelijkheid gemengd.
Lawrence Tribe van de Harvard Law School beschouwt het idee niet als bizar. “Het maakt voor de wettelijke aansprakelijkheid niet uit of de vermeende leugens over jou of iemand anders zijn gegenereerd door een mens of door een chatbot, door een echte inlichtingendienst of door een machine-algoritme.”
Robert Post van de Yale Law School bekijkt de zaak vanuit het perspectief van de communicatie zelf. Laster zou niet plaatsvinden op het moment dat de informatie door de bot wordt gegenereerd. Het zou alleen gebeuren als die (verkeerde) informatie door de gebruiker werd meegedeeld of verspreid. “Een ‘publicatie’ vindt alleen plaats wanneer een verdachte de lasterlijke verklaring aan een derde partij meedeelt.”
Niet zo, beweert RonNell Andersen Jones van de University of Utah. “Als lasterlijke onwaarheid wordt gegenereerd door een AI-chatbot zelf, is het moeilijker om dit te conceptualiseren binnen ons raamwerk van lasterwetgeving, dat een entiteit veronderstelt met een gemoedstoestand aan de andere kant van de communicatie.”
In termen van het belasteren van een publieke figuur, zou “werkelijke boosaardigheid” moeten worden getoond – iets dat duidelijk op gespannen voet staat in de ChatGPT-context. Jones wijst ons in een mogelijk andere richting: dat de functie, of anders, van een dergelijk systeem kan worden gezien door het prisma van productaansprakelijkheid.
Degenen die in de VS zijn gevestigd, kunnen hun toevlucht nemen tot sectie 230 van de Communications Decency Act, de meest opmerkelijke bepaling die internetserviceproviders immuniteit biedt tegen rechtszaken met betrekking tot inhoud die door derden op de site is gepubliceerd. De aantrekkingskracht van de sectie blijkt duidelijk uit het aantal aanvallen dat er tegen is gedaan, of het nu gaat om campagne voerende liberale beroemdheden met gekneusde reputaties of Donald Trump zelf.
Maar de oorspronkelijke opstellers van de wet, de democratische senator Ron Wyden uit Oregon, en voormalig afgevaardigde Chris Cox, een republikein uit Californië, zijn van mening dat makers van chatbots geen gebruik kunnen maken van de bescherming. “Om recht te hebben op immuniteit”, suggereerde Cox aan The Washington Post , “mag een aanbieder van een interactieve computerdienst niet hebben bijgedragen aan de totstandkoming of ontwikkeling van de inhoud in kwestie.”
Toen Ars Technica probeerde de verschillende fouten te repliceren die zogenaamd door ChatGPT waren gegenereerd, kwamen ze te kort. Idem de BBC. Dit zou kunnen suggereren dat de gegenereerde fouten zijn gecorrigeerd. Maar verwacht de komende weken, zo niet maanden, een aantal dikke, allesomvattende disclaimers om ervoor te zorgen dat AI-bots zoals ChatGPT niet aansprakelijk zijn.
In feite heeft ChatGPT er al een : “Gezien de probabilistische aard van machine learning, kan het gebruik van onze Services in sommige situaties resulteren in onjuiste uitvoer die geen nauwkeurige weergave is van echte mensen, plaatsen of feiten. U dient de nauwkeurigheid van elke uitvoer te evalueren die geschikt is voor uw gebruiksscenario, onder meer door menselijke beoordeling van de uitvoer te gebruiken. Of dit voldoet aan technologisch ongeletterde rechtbanken valt nog te bezien.