Bedrijven als OpenAI promoten kunstmatige intelligentie als wondermiddel, ook voor digitale toegankelijkheid. Het is bedoeld om gaten te dichten waar middelen schaars zijn en expertise duur. In haar lezing op het 37e Chaos Communication Congress legt Casey Kreer uit wat AI-systemen werkelijk kunnen bereiken – en waar de technologie faalt.
Digitale toegankelijkheid, digitale participatie, inclusie – dit behoren ook tot de beloften van de bedrijven achter moderne AI-systemen. Zij schetsen een rooskleurige toekomst waarin met behulp van AI zoveel mogelijk mensen met en zonder beperking kunnen deelnemen aan de samenleving. Casey Kreer , freelance toegankelijkheidsconsultant en webontwikkelaar, komt tot een andere conclusie: “We zullen moeten leven met de fouten van AI. Het is gevaarlijk, maar dat is de realiteit.”
Er zijn een paar nuttige toepassingen van AI-systemen voor toegankelijkheid, zoals Kreer uitlegde op het 37e Chaos Communication Congress in Hamburg. Maar dan ontkracht ze de mythe dat AI een wondermiddel is. Kreer maakt gebruik van ondersteunende technologie sinds ze zes jaar oud was en heeft een aangeboren visuele beperking. Ze gebruikt gespecialiseerde toetsenborden en muizen, software voor spraakinvoer en vergroting, en schermlezers .
Volgens Kreer kan AI een goed hulpmiddel zijn als we het zelfstandig inzetten. Zij kan mensen met een beperking ondersteunen in het dagelijks leven, bijvoorbeeld door automatisch gegenereerde alternatieve teksten voor afbeeldingen. Deze teksten beschrijven wat er op een afbeelding te zien is. Vooral op sociale media kunnen gebruikers alt-teksten gebruiken om de afbeeldingen die ze plaatsen toegankelijker te maken. Zonder alt-teksten missen mensen met een visuele beperking een grote hoeveelheid informatie.
Verschillende producten proberen dit gat te dichten, zoals de beeldherkenning van Apple’s iOS-besturingssysteem of de tekstgenerator ChatGPT, waarvan de nieuwste versie GPT-4 is. Hoewel de iOS-oplossing heel weinig informatie biedt, is ChatGPT veel gedetailleerder in het beschrijven van een afbeelding. De grote taalmodellen erachter zijn multimodaal en kunnen ook rekening houden met aanvullende commando’s. “Als ik bijvoorbeeld in een museum ben, kan ik het taalmodel vragen een gedicht of liedje voor mij te genereren in plaats van een beschrijving van de afbeelding”, zegt Kreer. “Hierdoor kan ik op verschillende manieren naar de foto kijken.” Dit soort deelname was voorheen niet mogelijk.
ChatGPT als hulpmiddel
Met GPT-4 beeldherkenning is nog meer mogelijk. Dit maakt het mogelijk om programma-interfaces te herkennen en nauwkeurig te beschrijven, legt Kreer uit. Dit is erg handig als u een schermlezer gebruikt voor interactie met de computer.
Ook taalmodellen als GPT-4 kunnen ondersteuning bieden op het gebied van licht en eenvoudig taalgebruik. Dit is vooral belangrijk voor mensen met een leer- of cognitieve beperking. U heeft er veel profijt van als de inhoud eenvoudig wordt voorbereid of samengevat, en als vreemde woorden of complexe tekst- en zinsstructuren worden afgebroken. Om dit te doen, krijgen taalmodellen een reeks regels over hoe ze teksten in eenvoudige taal moeten vertalen. In de vorm van een tool die ze zelfstandig gebruiken, geeft dit mensen toegang tot content die ze voorheen niet hadden.
Grote taalmodellen zijn ook nuttig bij het programmeren; Kreer deelt ervaringen uit haar dagelijkse werk. “Als je blind bent, is het moeilijk om een overzicht van de code te krijgen.” Met de stemuitvoer van de schermlezer kan Kreer slechts naar één regel code tegelijk luisteren. Ze moet ze in haar hoofd onthouden om ze in de context van de code te kunnen plaatsen. Grote taalmodellen zoals GPT-4 maken het werk eenvoudiger omdat ze ook meer algemene vragen over de code kunnen verwerken en antwoorden kunnen geven.
Ten slotte zijn taalmodellen vaak een grote hulp bij online onderzoek, omdat ze zoekresultaten van verschillende zoekmachines met elkaar verbinden en samenvatten. In deze vorm was dat voorheen niet mogelijk, zegt Kreer. Taalmodellen kunnen ook automatisch ondertitels genereren, waardoor mensen met een beperking toegang kunnen krijgen tot video-inhoud.
Wanneer taalmodellen onzin produceren
Maar vooral dit voorbeeld laat het gevaar van taalmodellen zien . AI-systemen kunnen bijvoorbeeld worden gebruikt om gesproken woorden om te zetten in tekst; Hierdoor worden automatisch gegenereerde ondertitels gemaakt. Kreer hekelt dat de ondertitelfunctie bij bijvoorbeeld YouTube-video’s vaak onzin oplevert die absoluut onbegrijpelijk is. Technologieën worden vaak toegevoegd aan bestaande structuren zonder enige toegevoegde waarde te bieden.
AI-systemen kunnen ook de andere kant op gaan en geschreven woorden en gesproken taal omzetten. Dan heet het tekst naar spraak, kortweg TTS. De kwaliteit van dergelijke TTS-software is vaak goed, legt Kreer uit. Het kan echter voorkomen dat deze programma’s onjuiste informatie aan teksten toevoegen. Kreer doet verslag van een incident waarbij iOS bij het hardop voorlezen het getal vijf in 50.000 veranderde.
Het wordt ook problematisch wanneer AI-systemen informatie onderdrukken vanwege veronderstelde beveiligingsinstellingen. Bijvoorbeeld als een beeldherkenningssysteem geen beelden beschrijft waarin veel bloed zit. Het programma bepaalt dus tot welke inhoud mensen barrièrevrij toegang hebben en welke niet. Het verhindert zelfbepaalde informatie, legt Kreer uit.
Vooroordelen, luiheid en commerciële belangen
Een ander groot probleem is de bias die in de modellen is ingebouwd. De term betekent bijvoorbeeld verdraaiingen, vooroordelen en de systematische stereotypering van mensen. Dit blijkt uit een voorbeeld van de beeldgenerator DALL-E van OpenAI.
Toen Kreer het gebruikte om een beeld van een blinde te genereren, verscheen in zes van de zes gevallen het beeld van een jonge, blanke man ; Goed gekleed met zonnebril en wandelstok. Wat opvalt aan de foto’s is de onrealistische positie van de stok, zegt Kreer. Dit komt omdat de modellen onvolledige gegevens bevatten waarin blinden niet adequaat zijn vertegenwoordigd.
“AI is een weerspiegeling van de samenleving die vooroordelen één op één weergeeft”, zegt Kreer. De bias zit al in de basisgegevens. Het is dodelijk als mensen slechte AI-resultaten accepteren. Helaas is dit vaak het geval omdat mensen “lui en capabel zijn ”, zegt Kreer.
En er is nog een probleem: de aanjagers van toegankelijkheidstechnologieën zijn meestal start-ups zoals accessiBe of Userway . Ze ontwikkelen oplossingen die winstgevend kunnen worden verkocht aan staten of grote bedrijven. Dit betekent dat mensen met een beperking niet langer de daadwerkelijke klantenkring vormen en dat de producten niet voor hen geoptimaliseerd zijn, zo blijkt uit de presentatie van Kreer.
De casus van Adrian Rosella , die Kreer in haar lezing behandelt , laat zien hoe het conflict tussen de getroffenen en het bedrijf kan escaleren . Rosella is expert op het gebied van technologie voor toegankelijkheid en kwam tot de conclusie: “AI zorgt niet voor meer inclusiviteit.” Hij had op X, voorheen Twitter, publiekelijk kritiek geuit op de technische oplossingen van bedrijven als AudioEye en gewaarschuwd voor buitensporige verwachtingen van de technologie. Uiteindelijk dreigde het bedrijf hem zelfs met juridische gevolgen .
Volgens Kreer is de reden waarom AI niet voor een grotere inclusiviteit zorgt, dat het zelf bekwaam is. En dat kan niet veranderd worden. Het ontwikkelen van technische oplossingen voor digitale toegankelijkheid behoort in de handen van mensen met een beperking; AI kan deze taak niet op zich nemen.