
In totaal wordt het leven van 92 miljoen mensen met een laag inkomen in de Verenigde Staten (mensen met een inkomen van minder dan 200% van de federale armoedegrens) voor een belangrijk deel bepaald door AI.
De miljarden dollars die in kunstmatige intelligentie (AI) zijn gestoken, hebben niet de beloofde revoluties van de technologie opgeleverd, zoals betere medische behandelingen , vooruitgang in wetenschappelijk onderzoek of een hogere productiviteit van werknemers .
Dus de AI-hypetrein levert het teleurstellende: iets slimmere telefoons, tekstgestuurde graphics en snellere rapportages (als de AI die niet zelf heeft verzonnen ). Ondertussen heeft de technologie een duistere keerzijde die niet wordt genoemd door de kermiskramers van AI: de wijdverbreide schade die AI momenteel toebrengt aan mensen met een laag inkomen.
AI en aanverwante technologieën worden door overheden, werkgevers, verhuurders, banken, onderwijzers en wetshandhaving gebruikt om ten onrechte de thuiszorg voor gehandicapten te bezuinigen; werklozen van fraude te beschuldigen ; mensen huisvesting , werk of krediet te ontzeggen ; kinderen weg te halen bij hun liefhebbende ouders en ze in pleeggezinnen te plaatsen; huiselijk geweld en seksueel misbruik of intimidatie te intensiveren ; kinderen van de middelbare school te bestempelen en te mishandelen als schoolverlaters of criminelen ; en zwarte en gekleurde mensen ten onrechte van misdaden te beschuldigen .
Met extra steun van liefdadigheidsinstellingen en het maatschappelijk middenveld kunnen arme gemeenschappen en hun belangenbehartigers beter weerstand bieden aan de directe gevaren en de politieke macht opbouwen die nodig is om op de lange termijn bescherming te bieden tegen de verwoestende gevolgen van AI.
Alles bij elkaar hebben 92 miljoen mensen met een laag inkomen in de Verenigde Staten – degenen met een inkomen van minder dan 200% van de federale armoedegrens – een belangrijk aspect van hun leven dat door AI wordt bepaald, volgens een nieuw rapport van TechTonic Justice . Deze verschuiving naar AI-besluitvorming brengt risico’s met zich mee die niet aanwezig zijn in de mensgerichte methoden die eraan voorafgaan en tart alle bestaande verantwoordingsmechanismen.
Ten eerste breidt AI de schaal van risico’s uit tot ver buiten de individuele besluitvormers. Natuurlijk kunnen mensen fouten maken of bevooroordeeld zijn. Maar hun bereik is beperkt tot de mensen waarover ze rechtstreeks beslissingen nemen. In het geval van verhuurders, directe supervisors of overheidsmedewerkers kan dat oplopen tot een paar honderd mensen. Maar met AI worden de risico’s van verkeerd toegepaste beleidsregels, coderingsfouten, bevooroordeeldheid of wreedheid gecentraliseerd via het systeem en toegepast op massa’s mensen, variërend van enkele duizenden tot miljoenen tegelijk.
Ten tweede zijn het gebruik van AI en de redenen voor de beslissingen ervan niet gemakkelijk te achterhalen door de mensen die eraan onderworpen zijn. Overheidsinstanties en bedrijven zijn vaak niet verplicht om expliciet bekend te maken dat ze AI gebruiken. En zelfs als ze dat wel doen, geven ze misschien niet de belangrijkste informatie vrij die nodig is om te begrijpen hoe de systemen werken.
Ook wij hebben jou steun nodig in 2025, gun ons een extra bakkie koffie groot of klein.
Dank je en proost?
Wij van Indignatie AI zijn je eeuwig dankbaar
Ten derde leent de veronderstelde verfijning van AI een mantel van rationaliteit aan beleidsbeslissingen die vijandig staan tegenover mensen met een laag inkomen. Dit maakt de weg vrij voor verdere implementatie van slecht beleid voor deze gemeenschappen. Bezuinigingen op uitkeringen, zoals die op thuiszorgdiensten waar ik tegen vocht voor gehandicapten, worden gemaskeerd als objectieve vaststellingen van behoeften. Of systemen voor werkplekbeheer en -bewaking die de stabiliteit en veiligheid van werknemers ondermijnen, worden gebruikt als hulpmiddelen om de productiviteit te maximaliseren. Om het spreekwoord aan te halen: AI-wolven gebruiken schapenavatars.
De schaal, ondoorzichtigheid en costumering van AI maken het moeilijk om schadelijke beslissingen op individueel niveau te bestrijden. Hoe kun je bewijzen dat AI fout zat als je niet eens weet dat het wordt gebruikt of hoe het werkt? En zelfs als je dat wel weet, maakt het dan uit wanneer de beslissing van de AI wordt ondersteund door beweringen van statistische verfijning en validiteit, hoe dubieus ook?
Op een breder niveau houden bestaande verantwoordingsmechanismen schadelijke AI niet in toom. AI-gerelateerde schandalen in openbare uitkeringssystemen zijn niet veranderd in politieke aansprakelijkheden voor de gouverneurs die verantwoordelijk zijn voor falende Medicaid- of werkloosheidsverzekeringssystemen in Texas en Florida, bijvoorbeeld. En de ambtenaren van de agentschappen die dergelijke systemen rechtstreeks implementeren, worden vaak beschermd door de gekozen ambtenaren wiens agenda’s ze uitvoeren.
Ook de marktdiscipline die eigenzinnige AI gebruikt tegen mensen met een laag inkomen, is niet van toepassing. Een grote ontwikkelaar van geschiktheidssystemen voor Medicaid-programma’s van de staat heeft $ 6 miljard aan contracten veiliggesteld , ook al hebben zijn systemen op vergelijkbare manieren in meerdere staten gefaald . Evenzo had een grote datamakelaar geen probleem met het winnen van contracten met de federale overheid, zelfs nadat een beveiligingsinbreuk de persoonlijke informatie van bijna 150 miljoen Amerikanen openbaarde.
Bestaande wetten schieten eveneens tekort. Zonder zinvolle AI-specifieke wetgeving moeten mensen bestaande juridische claims op de technologie toepassen. Deze claims zijn meestal gebaseerd op antidiscriminatiewetten of procedurele vereisten zoals het verkrijgen van adequate uitleg voor beslissingen. Ze zijn vaak pas beschikbaar nadat de schade is toegebracht en bieden beperkte verlichting. Hoewel dergelijke rechtszaken enig succes hebben gehad, zijn ze op zichzelf niet het antwoord.
Rechtszaken zijn immers duur; mensen met een laag inkomen kunnen zich geen advocaten veroorloven; en kwalitatieve, gratis vertegenwoordiging die beschikbaar is via programma’s voor rechtsbijstand kan mogelijk niet aan de vraag voldoen.
Op dit moment nemen onverantwoordelijke AI-systemen onbetwistbare beslissingen over mensen met een laag inkomen op onvoorstelbare schaal. Federale beleidsmakers zullen de zaken niet verbeteren. De regering-Trump heeft snel de beschermende AI-richtlijnen ingetrokken die voormalig Amerikaans president Joe Biden had uitgevaardigd. En aangezien president Donald Trump en het Congres de belangen van de industrie bevoordelen, zijn kortetermijnwettelijke oplossingen onwaarschijnlijk.
Toch betekent dat niet dat alle hoop verloren is. Verzet vanuit de gemeenschap heeft al lang sociale verandering aangewakkerd. Met extra steun van filantropie en het maatschappelijk middenveld kunnen gemeenschappen met een laag inkomen en hun voorstanders beter weerstand bieden aan de directe schade en politieke macht opbouwen die nodig is om op de lange termijn bescherming te bieden tegen de verwoestingen van AI.
Organisaties zoals de mijne, TechTonic Justice, zullen deze frontliniegemeenschappen en pleitbezorgers bekrachtigen met beproefde strategieën die procesvoering, organisatie, publieke educatie, narratieve pleitbezorging en andere dimensies van veranderingsprocessen omvatten. Uiteindelijk is vechten vanaf de basis onze beste hoop om AI-gerelateerd onrecht te bestrijden.
1 gedachte over “3 redenen waarom het gebruik van AI bij besluitvorming schadelijk is voor Amerikanen met een laag inkomen”