De Gemini-beeldgenerator AI heeft niet alleen een technisch probleem, maar ook een filosofisch probleem.
Vorige week nog moest Google op de rem trappen van zijn AI- beeldgenerator, Gemini genaamd, nadat critici klaagden dat het vooroordelen uitoefende… tegen blanke mensen.
De controverse begon met – je raadt het al – een virale post op X. Volgens die post van de gebruiker @EndWokeness liet Gemini, toen hem werd gevraagd om een afbeelding van een grondlegger van Amerika, een zwarte man zien, een Indiaanse man, een Aziaat man, en een man met een relatief donkere huidskleur. Gevraagd naar een portret van een paus, stonden er een zwarte man en een gekleurde vrouw op. Ook nazi’s werden naar verluidt afgeschilderd als racistisch divers .
America's Founding Fathers, Vikings, and the Pope according to Google AI: pic.twitter.com/lw4aIKLwkp
— End Wokeness (@EndWokeness) February 21, 2024
Na klachten van onder meer Elon Musk , die de output van Gemini ‘racistisch’ noemde en Google ‘wakker’, schortte het bedrijf de mogelijkheid van de AI-tool om foto’s van mensen te genereren op.
“Het is duidelijk dat deze functie zijn doel heeft gemist. Sommige van de gegenereerde afbeeldingen zijn onnauwkeurig of zelfs aanstootgevend”, schreef Google Senior Vice President Prabhakar Raghavan , eraan toevoegend dat Gemini soms “overcompenseert” in zijn zoektocht om diversiteit te tonen.
Raghavan gaf een technische verklaring voor waarom de tool overcompenseert: Google had Gemini geleerd niet in een aantal van de klassieke valkuilen van AI te trappen, zoals het stereotiep afbeelden van alle advocaten als mannen. Maar, zo schreef Raghavan, “onze afstemming om ervoor te zorgen dat Gemini een reeks mensen liet zien, slaagde er niet in om rekening te houden met gevallen die duidelijk geen reeks zouden moeten laten zien.”
Dit klinkt misschien allemaal als de nieuwste versie van de sombere cultuuroorlog over ‘ wakkerheid ’ – en een die, tenminste deze keer, kan worden opgelost door snel een technisch probleem op te lossen. (Google is van plan de tool binnen een paar weken opnieuw te lanceren.)
Maar er is hier iets diepers aan de hand. Het probleem met Gemini is niet alleen een technisch probleem.
Het is een filosofisch probleem – een probleem waarvoor de AI-wereld geen eenduidige oplossing heeft.
Wat betekent vooroordeel?
Stel je voor dat je bij Google werkt. Je baas zegt dat je een AI-beeldgenerator moet ontwerpen. Dat is een fluitje van een cent voor jou: je bent een briljante computerwetenschapper! Maar op een dag, terwijl je de tool aan het testen bent, besef je dat je met een raadsel zit.
Je vraagt de AI om een beeld van een CEO te genereren. Kijk, het is een man. Aan de ene kant leef je in een wereld waar de overgrote meerderheid van de CEO’s mannelijk is, dus misschien moet jouw tool dat accuraat weerspiegelen, door beelden te creëren van man na man na man. Aan de andere kant kan dit de genderstereotypen versterken die vrouwen uit de topposities houden. En er staat niets in de definitie van “CEO” dat een geslacht specificeert. Moet je dus in plaats daarvan een tool maken die een evenwichtige mix laat zien, ook al is het geen mix die de realiteit van vandaag weerspiegelt?
Dit komt neer op hoe je vooroordelen begrijpt.
Computerwetenschappers zijn gewend om over ‘bias’ te denken in termen van de statistische betekenis ervan: een programma voor het maken van voorspellingen is bevooroordeeld als het consequent in de ene of de andere richting fout zit. (Als een weer-app bijvoorbeeld altijd de kans op regen overschat, zijn zijn voorspellingen statistisch bevooroordeeld.) Dat is heel duidelijk, maar het is ook heel anders dan de manier waarop de meeste mensen het woord ‘vooringenomenheid’ gebruiken – wat meer lijkt op ‘bevooroordeeld tegen een bepaalde groep.”
Het probleem is dat als je je beeldgenerator zo ontwerpt dat hij statistisch onbevooroordeelde voorspellingen doet over de genderverdeling onder CEO’s, deze ook bevooroordeeld zal zijn in de tweede betekenis van het woord. En als je het zo ontwerpt dat de voorspellingen niet correleren met geslacht, zal het in statistische zin vertekend zijn.
Dus hoe moet je de afweging oplossen?
“Ik denk niet dat er een duidelijk antwoord op deze vragen kan bestaan”, vertelde Julia Stoyanovich, directeur van het NYU Center for Responsible AI, toen ik eerder over dit onderwerp rapporteerde . “Omdat dit allemaal gebaseerd is op waarden.”
In elk algoritme is een waardeoordeel ingebed over waar prioriteit aan moet worden gegeven, ook als het gaat om deze concurrerende noties van vooringenomenheid. Bedrijven moeten dus beslissen of ze accuraat willen zijn in het weergeven van hoe de samenleving er momenteel uitziet, of een visie willen uitdragen over hoe zij denken dat de samenleving eruit zou kunnen of zelfs zou moeten zien: een droomwereld.
Hoe kunnen technologiebedrijven beter omgaan met deze spanning?
Het eerste dat we van bedrijven mogen verwachten, is expliciet maken waarvoor een algoritme optimaliseert: op welk soort vooroordelen zal het zich richten? Vervolgens moeten bedrijven bedenken hoe ze dat in het algoritme kunnen inbouwen.
Onderdeel daarvan is voorspellen hoe mensen een AI-tool waarschijnlijk zullen gebruiken. Ze kunnen proberen historische afbeeldingen van de wereld te maken (denk aan: witte pausen), maar ze kunnen ook proberen afbeeldingen te maken van een droomwereld (vrouwelijke pausen, kom maar op!).
“In Gemini gingen ze de fout in de richting van de ‘droomwereld’-benadering, omdat ze begrepen dat het negeren van de historische vooroordelen die het model leerde (minimaal) zou resulteren in massale publieke terugslag”, schreef Margaret Mitchell, hoofdethiekwetenschapper bij de AI-startup Hugging Face.
Google heeft mogelijk bepaalde trucs ‘onder de motorkap’ gebruikt om Gemini ertoe aan te zetten droomwereldbeelden te produceren, legde Mitchell uit . Het kan bijvoorbeeld zijn geweest dat er diversiteitstermen zijn toegevoegd aan de prompts van gebruikers, waardoor ‘een paus’ is veranderd in ‘een paus die vrouwelijk is’ of ‘een Founding Father’ in ‘een Founding Father die zwart is’.
Maar in plaats van slechts een droomwereldbenadering te volgen, had Google Gemini kunnen uitrusten om uit te zoeken welke aanpak de gebruiker eigenlijk wil (bijvoorbeeld door feedback te vragen over de voorkeuren van de gebruiker) – en die vervolgens te genereren, ervan uitgaande dat de gebruiker niet om iets verboden terrein.
Wat als verboden geldt, komt wederom neer op waarden. Elk bedrijf moet zijn waarden expliciet definiëren en vervolgens zijn AI-tool uitrusten om verzoeken te weigeren die deze waarden schenden. Anders eindigen we met dingen als Taylor Swift-porno .
AI-ontwikkelaars hebben de technische mogelijkheden om dit te doen. De vraag is of ze het filosofische vermogen hebben om rekening te houden met de waardekeuzes die ze maken – en de integriteit om daar transparant over te zijn.