Sommige mensen denken dat kunstmatige intelligentie (AI) ons hele leven zal verbeteren. Zelfrijdende auto’s zouden binnenkort de verkeersveiligheid vergroten, alle logistiek zou veiliger, sneller en betrouwbaarder zijn en de droom van intelligente steden zou niet ver weg zijn. Anderen daarentegen zijn er vast van overtuigd dat AI geleidelijk alle banen zal rationaliseren en ons allemaal zal laten smeken om een soort basisinkomen.
kunstmatige intelligentie Weer anderen geloven dat Kunstmatige intelligentie een droom van de toekomst is, een technologie die nog lang niet klaar is voor de markt en hen dus niet raakt. Terwijl de eerste twee groepen gelijk hebben, althans tot op zekere hoogte, heeft de derde groep het helaas volledig bij het verkeerde eind. De AI, die voor de meeste mensen een zwarte doos is en zal blijven,
Alleen degenen die begrijpen wat Kunstmatige intelligentieis en hoe het moet worden gebruikt, kunnen zich met dit soort technologie verdedigen tegen de geplande invallen. Dus wat is AI? Er zijn verschillende definities van AI, maar het gaat altijd om het programmeren, ontwerpen en bouwen van iets dat “intelligent” reageert of zich gedraagt als “een mens”.
En dit is precies waar de misvatting ligt: want hoe geavanceerd een algoritme ook is, het zal zich nooit als een mens kunnen gedragen. Zelfs geavanceerde AI’s die zijn gebaseerd op neurale netwerken of die zijn ontworpen om visuele stimuli op een vergelijkbare manier als hersencellen te verwerken, zullen nooit humaan kunnen handelen.
Omdat mensen geen rationele wezens zijn, hebben ze ook een logische geest, maar worden ze onbewust gestuurd door gevoelens en emoties. Daniel Kahnemann, die in 2002 de Nobelprijs voor de economie kreeg voor zijn werk over de psychologie van oordeel en besluitvorming en over gedragseconomie, heeft voor eens en voor altijd het verhaal van de homo oeconomicus terzijde geschoven , dat wil zeggen het puur rationele individu dat beslissingen.
Een mens neemt geen puur rationele beslissingen zoals een AI dat doet, hij handelt en reageert bijna uitsluitend emotioneel. Omdat niets de poorten van de waarneming doordringt dat niet eerder door de limbische structuren is gegaan om daar emotioneel geladen te zijn. En alleen wat als emotioneel relevant wordt beschouwd, komt uiteindelijk onder onze aandacht. Het feit dat beslissingen in de hersenen grotendeels onbewust en altijd emotioneel zijn, wordt tegenwoordig ook met succes gebruikt in neuromarketing.
Zodat AI de mens kan vervangen, is pure onzin, een verraderlijke manipulatie die wordt gebruikt om ons te laten geloven dat AI superieur is aan ons.
Want wie dat gelooft, kan maar al te gemakkelijk worden overgehaald om de controle over te dragen aan een schijnbaar ‘alwetende’ AI, wat gezien de huidige ontwikkelingen fataal zou zijn. Omdat in een wereld waarin machines worden geclassificeerd als alwetend en superieur aan mensen, het eigen denken, scepticisme en elke vorm van vrije beslissing sterven.
Gegevensdiefstal is gepatenteerd
Helaas wordt maar al te vaak verzwegen dat AI niet zou bestaan zonder enorme hoeveelheden data en dat het absoluut niets te maken heeft met wat we onder intelligentie verstaan. AI vereist big data, en zoals een artikel op de Biometrische Update – website laat zien, nemen AI-technologieën al privégegevens over zonder angst voor gevolgen. Het artikel “Clearview AI maakt gezichtsbiometrische service beschikbaar voor het Oekraïense Ministerie van Defensie.” (Engels: Clearview AI voorziet het Oekraïense Ministerie van Defensie van een biometrische gezichtsherkenningsservice) toont de ware omvang van de illegale dataverzamelingswaanzin.
In het artikel kondigt het bedrijf Clearview AI (Clearview) aan dat het zijn biometrische app, die gebaseerd is op een database met miljarden foto’s van internetgebruikers, gratis ter beschikking zal stellen van het Oekraïense Ministerie van Defensie. Meer dan twee miljard van de meer dan 10 miljard foto’s van internetgebruikers zouden afkomstig zijn van de Russische sociale-mediawebsite VKontakte.
Ik betwijfel ten zeerste dat de mensen die zo achteloos hun foto’s op het web delen, Clearview toestemming hebben gegeven om ze op te slaan in een enorme database en ze zonder onderscheid naar iedereen te verspreiden. Waar ik echter niet aan twijfel, is dat het Amerikaanse bedrijf waarschijnlijk ook alle foto’s van sociale media in Europa illegaal in zijn database heeft opgeslagen en laat beheren door zijn Kunstmatige intelligentie.
De mede-oprichter van het bedrijf, Hoan Ton-That, een autodidactische ingenieur van Vietnamese en Australische afkomst, suggereerde ook dat de app ook zou kunnen worden gebruikt om Russische agenten te identificeren. Dit is extreem gevaarlijk omdat in een oorlog elke tegenstander van welke aard dan ook kan worden gedegradeerd tot een agent. Enkelen beslissen wie goed is en wie slecht. En wat er gebeurt met degenen die men als kwaad wil laten erkennen, is bekend uit de geschiedenis.
Iedereen die gelooft dat AI er alleen is om ons leven gemakkelijker en beter te maken, zal uiterlijk nu anders worden geleerd. Een technologie die het mogelijk maakt om zonder hun medeweten iemands privégegevens in databases op te slaan en zo nodig willekeurig mensen als vijanden te definiëren, is niet alleen onverantwoord, maar ook zeer gevaarlijk.
In het bovenstaande artikel wijst de maatschappelijke groep Surveillance Technology Oversight Project erop dat technologieën die op het slagveld worden gebruikt, kunnen worden misbruikt. Ik zal zelfs nog een stap verder gaan en zeggen dat de oorlogspropaganda ze vrijwel zeker zal misbruiken.
Het is een raadsel waarom de oprichters van dit bedrijf niet al achter slot en grendel zitten, hun winkel gesloten en hun illegale databases verwijderd. Ten slotte heeft Clearview lange tijd te maken gehad met beschuldigingen van massaal toezicht en het schenden van de algemene voorwaarden van sociale netwerken zoals Twitter, evenals de privacy van gebruikers.
Ondanks deze aantijgingen werden Clearview-datadieven op 15 februari 2022 zelfs beloond met een patent getiteld Methoden voor het verstrekken van informatie over een persoon op basis van gezichtsherkenning
En dit ondanks het feit dat het octrooi een systeem beschrijft voor het gebruik van gezichtsherkenning, waarvan de informatie afkomstig is van het openbare internet. Het Amerikaanse bedrijf gebruikt de persoonlijke gegevens van mensen zonder hun toestemming en verkoopt deze aan wetshandhavingsinstanties en andere instellingen, ook zonder hun toestemming. Het is een schandaal dat zo’n product ook gepatenteerd kan worden.
De opmerking van CEO Hoan Ton-Dat is een farce: “Deze onderscheiding is meer dan bescherming van intellectueel eigendom; het is een duidelijke erkenning van de technologische innovatie van Clearview AI in de kunstmatige-intelligentie-industrie.”
Een AI die de wereld verandert
Maar het project van Clearview lijkt nog steeds ongevaarlijk in vergelijking met de autonome AI van het in Israël gevestigde bedrijf Cortica . Directeur Igal Raichelgauz begon zijn carrière bij een elite -inlichtingeneenheid van de Israel Defense Forces (IDF) , dus het is niet verwonderlijk dat Cortica’s staf veel veteranen van de Israëlische elite militaire inlichtingendiensten omvat, naast vooraanstaande AI-onderzoekers .
De AI die de wereld zou moeten veranderen, is gebaseerd op jarenlang intern hersenonderzoek aan delen van een rattenbrein. Volgens het bedrijf is de AI gebaseerd op de neuronactiviteit en de leermechanismen van het zoogdierbrein. De superioriteit van de AI is gebaseerd op het feit dat het niet de concepten van eerdere deep learning -systemen gebruikt voor visuele gegevensverwerking, maar hetzelfde proces als het menselijk brein. Om deze reden kan de Kunstmatige intelligentie, die wordt beschermd door 200 patenten, niet alleen concepten en contexten begrijpen, maar er ook conclusies uit trekken.
Tot nu toe is Kunstmatige intelligentie voornamelijk geadverteerd voor het besturen van autonome auto’s of voor het voorspellen van complexe systemen zoals het weer, maar in het “nieuwe normaal” zal het naar verwachting ook worden gebruikt bij videobewaking. Het eerste project van dit soort loopt sinds 2017 in India. In een samenwerking met Best Group analyseert de Cortica AI gegevens van alle CCTV-camera’s in de openbare ruimte. In 2018 kondigde Cortica publiekelijk aan dat, in de stijl van de sci-fi- film Minority Report , de AI ervan misdaden zou kunnen stoppen voordat ze werden gepleegd.
Deze aanpak, in vakjargon bekend als predictive crime , wordt al geruime tijd getest in verschillende pilotprojecten wereldwijd, maar de technologie van Cortica is geavanceerder omdat deze zich richt op de mens zelf. De AI wil zogenaamde ‘gedragsanomalieën’ gebruiken in micro-gezichtsuitdrukkingen om potentiële criminelen te identificeren.
De veelbetekenende signalen die erop kunnen wijzen dat een persoon op het punt staat een gewelddadige misdaad te plegen, zijn zo klein dat ze alleen kunnen worden gedetecteerd door het onkreukbare oog van een Kunstmatige intelligentie, zegt het bedrijf.
De software moet niet alleen gedragsverschillen tussen gezagsgetrouwe burgers en mogelijke criminelen herkennen, maar moet ook onderscheid kunnen maken tussen een vreedzame, drukke markt en een politieke demonstratie die gewelddadig dreigt te worden.
Waar brengen dergelijke benaderingen ons naartoe? Willen we het monitoren van de openbare ruimte echt overlaten aan een stuk software waarvan we de programmering niet kennen en waarvan we de leerprocessen en beslissingen niet kunnen begrijpen? Willen we dat de bedoelingen van een complex wezen als mensen worden geëvalueerd door een algoritme dat primitief is in vergelijking met ons? En hoe gaan we ons verdedigen tegen mogelijke beschuldigingen als een Kunstmatige intelligentie eenmaal als alwetend en onfeilbaar is geclassificeerd?
Wat als een totalitair regime zo’n systeem misbruikt om afwijkende meningen te onderdrukken en mensen te arresteren voordat ze zelfs maar de kans hebben om een protest te organiseren?
Als dergelijke dystopische vooruitzichten niet eng genoeg lijken, heeft Cortica nog een andere use-case voor u: in de toekomst zou Kunstmatige intelligentie het gedrag van passagiers in autonome taxi’s kunnen volgen om potentieel gevaarlijke situaties te herkennen en wetshandhaving in te stellen voordat levens verloren gaan.
Slechte dag gehad, boos op je partner of baas? Ga dan in de toekomst liever niet de openbare ruimte in, vermijd het gebruik van een taxi of verberg in ieder geval je gezicht voor het alziende oog van de AI. Omdat de geringste spiertrekking in hun gezicht, die woede, woede of misschien zelfs haat uitdrukt, ertoe kan leiden dat ze worden geïdentificeerd als een gevaar voor het grote publiek en preventieve arrestatie.
Een Kunstmatige intelligentie voor het maskertijdperk
Het voorbeeld van Corsight AI (Corsight) laat zien hoe ver Kunstmatige intelligentie kan gaan . Het particuliere bedrijf, opgericht in Tel Aviv in 2019, is een dochteronderneming van Cortica. De adviesraad van het bedrijf bestaat uit James Woolsey, een voormalig CIA-directeur, en voormalig FBI-adjunct-directeur Oliver Revell.
De autonome AI Fortify , die ook gespecialiseerd is in gezichtsherkenning, kenmerkt zich door het feit dat het ook onder moeilijke omstandigheden valide resultaten moet opleveren. Drukte, slechte lichtomstandigheden en gedeeltelijk verduisterde gezichten zouden voor Fortify geen probleem moeten zijn.
Om deze reden promoot het bedrijf ook expliciet de tool voor het monitoren van pandemische maatregelen: “We leven in ongekende tijden met nieuwe sociale normen en uitdagingen. Aangezien gezichtsmaskers alomtegenwoordig worden, zijn nieuwe oplossingen nodig om de veiligheidsnormen te handhaven.”
Om deze veiligheidsnormen te handhaven – een eufemisme voor totale controle – is Fortify ontworpen om de naleving van alle quarantaineorders te controleren. Hiervoor controleert de software of mensen geen mondkapje dragen op plekken waar dat wel nodig is; het bepaalt of mensen koorts hebben; bewaakt contactloze toegangscontroles in bepaalde faciliteiten, naleving van afstandsregels en contacttracering om werkplekken te beveiligen en de verspreiding van infecties te voorkomen. Als bijvoorbeeld een beveiligingsbedreigende persoon wordt gedetecteerd die het masker niet correct draagt, kan Fortify een realtime waarschuwing geven.
Het “DNA to Face”-project
Maar het mag niet bij conventionele gezichtsherkenning blijven. Zoals onthuld in een presentatie voor de Imperial Capital Investors Conference 2021 , werkt het bedrijf aan een project dat het ‘DNA to Face’ noemt. Zoals de MIT Technology Review meldde, gebruikt deze benadering niet het gezicht van een persoon voor identificatie, maar eerder hun genetisch materiaal, hun DNA.
Op basis van het individuele DNA moet een model van het gezicht worden gemaakt, dat vervolgens op Kunstmatige intelligentie gebaseerde gezichtsherkenningssoftware gebruikt om de fysieke tegenhanger uit een database te filteren. Naast DNA to Face bevat de productroadmap ook loopbiometrie en op stemherkenning gebaseerde gezichtskenmerken die zijn ontworpen om de gezichtsherkenningsmogelijkheden van de Kunstmatige intelligentie verder uit te breiden.
Volgens de huidige stand van de kennis is een eenduidige gezichtsherkenning via het individuele DNA nog niet mogelijk, omdat de verschillende methoden van fenotypering (dat wil zeggen het onderzoeken van de genen die verantwoordelijk zijn voor de uiterlijke kenmerken van een individu) alleen kunnen worden gebaseerd op op afstamming en geslacht, en met een zekere waarschijnlijkheid kan oog-, haar- en huidskleur worden bepaald.
Of een geldige gezichtsreconstructie op basis van het genetische materiaal ooit mogelijk zal zijn, is een raadsel, maar we werken er hard aan om dit idee te realiseren. Burgerrechtenadvocaat en uitvoerend directeur van het Surveillance Technology Oversight Project (STOP) , Albert Fox Cahn, noemt het idee ‘pseudowetenschap’. Maar zoals de coronacrisis heeft laten zien, mag dit geen reden zijn om deze technologie – desnoods – als absoluut serieuze wetenschap aan ons te verkopen.
Het feit dat de relevante wetten op dit gebied in Duitsland al zijn gewijzigd, pleit ook voor het feit dat dergelijke procedures in de toekomst op grote schaal zullen worden gebruikt. DNA-fenotypering was in Duitsland tot eind 2019 verboden vanwege wettelijke beperkingen in het Wetboek van Strafvordering.
In 2018 is forensische DNA-analyse uitgebreid met het regeerakkoord van 2018 : “In strafzaken wordt DNA-analyse uitgebreid met uiterlijke kenmerken (haar, ogen, huidskleur) en leeftijd (§ 81e StPO).” Op 15 november 2019 werd de wijziging door de Bondsdag aangenomen en trad op 12 december 2019 in werking.
De § 81e StPO paragraaf 2, zin 2 is nu als volgt geformuleerd: “Als niet bekend is van welke persoon het sporenmateriaal afkomstig is, kunnen aanvullende bepalingen over de oog-, haar- en huidskleur en de leeftijd van de persoon worden gedaan .” In Beieren is het zelfs toegestaan om de biogeografische oorsprong vast te stellen door middel van fenotypering.
De nodige wetten werden precies op het juiste moment aangepast zodat gezichtsherkenning met DNA later stap voor stap kon worden uitgebreid naar onschuldige burgers. Want wie een potentiële crimineel zou kunnen zijn, wordt binnenkort misschien niet meer bepaald door een mens, maar door een ‘zelflerend’ algoritme.
Bewakingstechnologie zover het oog reikt
Ondanks zorgen over steeds invasievere bewakingstechnologieën, groeit de markt voor door Kunstmatige intelligentie aangedreven menselijke identificatie. De nieuwe voertuigen registreren al het individuele rijprofiel van hun eigenaar zonder dat hij er iets van merkt: acceleratie, remmen, snelheid, reactie op obstakels, dit alles maakt het mogelijk om duidelijke conclusies te trekken over de bestuurder. Officieel wordt gezegd dat deze gegevens alleen worden verzameld om mogelijke ongevallen te kunnen reconstrueren of om de prestaties van het voertuig te optimaliseren, maar dat is waarschijnlijk maar de halve waarheid.
De resultaten van een project dat tot doel heeft mensen alleen aan de hand van hun hartslag te identificeren, zijn onlangs gepubliceerd op de website van de Carlos III-universiteit in Madrid . Samen met de Shahid Rajaee Teacher Training University of Iran hebben de Spaanse onderzoekers software ontwikkeld die de individuele kenmerken van de hartslag, die uit een eenvoudig elektrocardiogram (ECG) kunnen worden gehaald, gebruikt om deze te identificeren. Op basis van deze kenmerken analyseert het algoritme dynamiek, ritme, timbre, toonhoogte en tonaliteit – factoren die vaak worden gebruikt om audiobestanden te karakteriseren. De combinatie van deze parameters moet voor elke persoon uniek zijn en een nauwkeurigheid van 96,6 procent hebben.
Dit relatief eenvoudige concept kon vandaag al worden geïmplementeerd: als iedereen de nieuwste Apple Watch om zijn pols had, die al een eenvoudig ECG kan opnemen, zou alleen het identificatie-algoritme in het horloge moeten worden geïntegreerd.
Maar het zal waarschijnlijk niet blijven bij wearables zoals fitnesstrackers en horloges, ze zullen waarschijnlijk slechts een overgangstechnologie zijn en zullen in de nabije toekomst achterhaald raken. Chaotic Moon Studios, gevestigd in Austin, Texas, laat zien waar de reis naartoe gaat. Het bedrijf, dat in 2015 werd overgenomen door Accenture, een wereldwijd managementadviesbureau met meer dan 336.000 medewerkers, beweert met zijn Tech Tats – elektronische tatoeages – een apparaatonafhankelijk alternatief voor totale surveillance te hebben ontwikkeld.
Een bijzonder interessante tatoeage, die perfect zou passen in de geplande gezondheidsdictatuur, is gebaseerd op een techniek die informatie van het menselijk lichaam kan analyseren en verzamelen. De speciale tatoeage kan zelfs met behulp van geleidende inkt in de huid worden ingebed. De geleidende verf maakt het mogelijk een circuit te creëren dat gezondheids- en andere biometrische gegevens van het lichaam en de omgeving vastlegt. Het prototype dat in 2015 werd gepresenteerd, zoals FitBit, Jawbone of de Apple Watch, kan gegevens verzamelen over de gezondheid en de omgeving van de drager, deze uploaden naar de cloud en naar elk apparaat of faciliteit sturen.