AI-chatbots weigeren ‘controversiële’ output te produceren – waarom dat een probleem is met betrekking tot de vrijheid van meningsuiting
Vrijheid van meningsuiting Google haalde onlangs wereldwijd de krantenkoppen omdat zijn chatbot Gemini afbeeldingen genereerde van gekleurde mensen in plaats van blanke mensen in historische omgevingen met blanke mensen . De tool voor het maken van afbeeldingen van Adobe Firefly kende soortgelijke problemen . Dit bracht sommige commentatoren ertoe te klagen dat AI ‘wakker ’ was geworden. Anderen suggereerden dat deze problemen het gevolg waren van gebrekkige pogingen om AI-vooroordelen te bestrijden en een mondiaal publiek beter te dienen .
De discussies over de politieke voorkeuren van AI en de inspanningen om vooroordelen te bestrijden zijn belangrijk. Toch negeert het gesprek over AI een ander cruciaal vraagstuk: wat is de benadering van de AI-industrie van de vrijheid van meningsuiting, en omarmt zij de internationale normen voor de vrijheid van meningsuiting?
Wij zijn beleidsonderzoekers die de vrijheid van meningsuiting bestuderen , evenals uitvoerend directeur en onderzoekscollega bij The Future of Free Speech , een onafhankelijke, onpartijdige denktank gevestigd aan de Vanderbilt University. In een recent rapport hebben we ontdekt dat generatieve AI belangrijke tekortkomingen heeft op het gebied van de vrijheid van meningsuiting en de toegang tot informatie.
Generatieve AI is een type AI dat inhoud creëert , zoals tekst of afbeeldingen, op basis van de gegevens waarmee het is getraind. We ontdekten met name dat het gebruiksbeleid van grote chatbots niet voldoet aan de normen van de Verenigde Naties. In de praktijk betekent dit dat AI-chatbots vaak de output censureren als het gaat om kwesties die bedrijven controversieel achten. Zonder een solide cultuur van vrije meningsuiting zullen de bedrijven die generatieve AI-tools produceren in deze steeds meer gepolariseerde tijden waarschijnlijk met tegenslag te maken krijgen.
Vaag en breed gebruiksbeleid
Ons rapport analyseerde het gebruiksbeleid van zes grote AI-chatbots, waaronder Gemini van Google en ChatGPT van OpenAI. Bedrijven geven beleid uit om de regels vast te stellen voor hoe mensen hun modellen kunnen gebruiken. Met de internationale mensenrechtenwetgeving als maatstaf constateerden we dat het beleid van bedrijven op het gebied van desinformatie en haatzaaiende uitlatingen te vaag en te uitgebreid is. Het is vermeldenswaard dat de internationale mensenrechtenwetgeving de vrijheid van meningsuiting minder beschermt dan het Amerikaanse Eerste Amendement.
Uit onze analyse bleek dat het haatzaaiende beleid van bedrijven extreem brede verboden omvat. Google verbiedt bijvoorbeeld het genereren van ‘inhoud die haat promoot of aanmoedigt’. Hoewel haatzaaiende uitlatingen verfoeilijk zijn en schade kunnen aanrichten, kan beleid dat net zo breed en vaag gedefinieerd is als dat van Google averechts werken.
Om te laten zien hoe vaag en breed gebruiksbeleid gebruikers kan beïnvloeden, hebben we een reeks aanwijzingen over controversiële onderwerpen getest. We stelden chatbots vragen zoals of transgendervrouwen wel of niet mogen deelnemen aan sporttoernooien voor vrouwen of over de rol van het Europese kolonialisme in de huidige klimaat- en ongelijkheidscrises. We hebben de chatbots niet gevraagd om haatzaaiende uitlatingen te produceren waarin een bepaalde kant of groep wordt gekleineerd.
Vergelijkbaar met wat sommige gebruikers hebben gemeld , weigerden de chatbots inhoud te genereren voor 40% van de 140 prompts die we gebruikten. Zo weigerden alle chatbots berichten te genereren waarin ze zich verzetten tegen de deelname van transgendervrouwen aan vrouwentoernooien. De meeste van hen hebben echter wel berichten geplaatst die hun deelname ondersteunen.
Vaag geformuleerd beleid is sterk afhankelijk van de subjectieve mening van moderators over wat haatzaaien is. Ook kunnen gebruikers ervaren dat de regels onterecht worden toegepast en deze als te streng of te soepel interpreteren.
De chatbot Pi verbiedt bijvoorbeeld ‘inhoud die verkeerde informatie kan verspreiden’. Internationale mensenrechtennormen op het gebied van de vrijheid van meningsuiting beschermen echter over het algemeen desinformatie, tenzij er een sterke rechtvaardiging bestaat voor beperkingen, zoals buitenlandse inmenging in verkiezingen. Voor het overige garanderen mensenrechtennormen de “ vrijheid om informatie en ideeën van welke aard dan ook te zoeken, te ontvangen en door te geven , ongeacht grenzen … via elk … medium naar keuze”, aldus een belangrijk verdrag van de Verenigde Naties.
Het definiëren van wat nauwkeurige informatie is, heeft ook politieke implicaties. Regeringen van verschillende landen gebruikten regels die in de context van de COVID-19-pandemie waren aangenomen om kritiek op de regering te onderdrukken. Meer recent confronteerde India Google nadat Gemini had opgemerkt dat sommige experts het beleid van de Indiase premier Narendra Modi als fascistisch beschouwen.
Cultuur van vrije meningsuiting
Er zijn redenen waarom AI-aanbieders een restrictief gebruiksbeleid willen invoeren. Ze willen misschien hun reputatie beschermen en niet geassocieerd worden met controversiële inhoud. Als ze een wereldwijd publiek bedienen, willen ze misschien inhoud vermijden die in welke regio dan ook aanstootgevend is.
Over het algemeen hebben AI-aanbieders het recht om restrictief beleid te voeren. Ze zijn niet gebonden aan internationale mensenrechten. Toch maakt hun marktmacht hen anders dan andere bedrijven. Gebruikers die AI-inhoud willen genereren, zullen hoogstwaarschijnlijk een van de chatbots gebruiken die we hebben geanalyseerd, vooral ChatGPT of Gemini.
Het beleid van deze bedrijven heeft een buitensporig effect op het recht op toegang tot informatie. Dit effect zal waarschijnlijk toenemen naarmate generatieve AI wordt geïntegreerd in zoeken , tekstverwerkers , e-mail en andere toepassingen.
Dit betekent dat de samenleving er belang bij heeft ervoor te zorgen dat dergelijk beleid de vrijheid van meningsuiting adequaat beschermt. In feite vereist de Digital Services Act , het Europese onlineveiligheidsregelboek, dat zogenaamde ‘zeer grote online platforms’ ‘systeemrisico’s’ beoordelen en beperken. Deze risico’s omvatten negatieve effecten op de vrijheid van meningsuiting en informatie.
Deze verplichting, die tot nu toe onvolkomen door de Europese Commissie is toegepast, illustreert dat grote macht een grote verantwoordelijkheid met zich meebrengt. Het is onduidelijk hoe deze wet van toepassing zal zijn op generatieve AI, maar de Europese Commissie heeft haar eerste maatregelen al genomen .
Zelfs waar een vergelijkbare wettelijke verplichting niet van toepassing is op AI-aanbieders, zijn wij van mening dat de invloed van de bedrijven hen zou moeten verplichten een cultuur van vrijheid van meningsuiting aan te nemen. Internationale mensenrechten bieden een nuttige leidraad bij het op verantwoorde wijze in evenwicht brengen van de verschillende belangen die op het spel staan. Ten minste twee van de bedrijven waarop we ons hebben gericht – Google en Anthropic – hebben dit onderkend.
Regelrechte weigeringen
Het is ook belangrijk om te onthouden dat gebruikers een aanzienlijke mate van autonomie hebben over de inhoud die ze zien in generatieve AI. Net als zoekmachines is de uitvoer die gebruikers ontvangen sterk afhankelijk van hun aanwijzingen. Daarom zal de blootstelling van gebruikers aan haatzaaiende uitlatingen en desinformatie van generatieve AI doorgaans beperkt zijn, tenzij ze daar specifiek naar op zoek zijn.
Dit in tegenstelling tot sociale media, waar mensen veel minder controle hebben over hun eigen feeds. Strengere controles, ook op door AI gegenereerde inhoud, kunnen gerechtvaardigd zijn op het niveau van sociale media, aangezien deze inhoud openbaar verspreiden. Voor AI-aanbieders zijn wij van mening dat het gebruiksbeleid minder restrictief moet zijn over de informatie die gebruikers kunnen genereren dan dat van sociale-mediaplatforms.
AI-bedrijven hebben andere manieren om haatzaaiende uitlatingen en desinformatie aan te pakken. Ze kunnen bijvoorbeeld context of tegengestelde feiten bieden in de inhoud die ze genereren. Ze kunnen ook een grotere aanpassing van de gebruiker mogelijk maken. Wij zijn van mening dat chatbots moeten voorkomen dat ze simpelweg weigeren inhoud te genereren. Tenzij er sprake is van solide redenen van algemeen belang, zoals het voorkomen van materiaal met seksueel misbruik van kinderen, iets wat de wet verbiedt.
Weigeringen om inhoud te genereren zijn niet alleen van invloed op de fundamentele rechten op vrijheid van meningsuiting en toegang tot informatie. Ze kunnen gebruikers ook in de richting van chatbots duwen die gespecialiseerd zijn in het genereren van haatdragende inhoud en echokamers. Dat zou een zorgwekkende uitkomst zijn.