In september installeerde Israël een AI-aangedreven kanon bij een militaire controlepost in de bezette stad Hebron op de Westelijke Jordaanoever. Nu is diezelfde technologie ingezet bij de ingang van het Aida-vluchtelingenkamp in Bethlehem.
Overal in bezet Oost-Jeruzalem vind je bewakingscamera’s strategisch geplaatst op straathoeken. En op de hele Westelijke Jordaanoever omvatten de ontmoetingen van Palestijnen met Israëlische soldaten vaak niet alleen geweld, maar ook apps voor gezichtsscans die zijn ontworpen om hun persoonlijke gegevens vast te leggen.
Technologie is een integraal onderdeel geworden van ons moderne leven, maar voor de Palestijnen is Big Tech ook een andere manier geworden waarop Israël controle uitoefent.
Who Profits, een Israëlisch onderzoekscentrum dat de banden van de particuliere sector met de Israëlische bezetting documenteert, bracht in mei een rapport uit over de rol van multinationale technologiebedrijven bij het faciliteren van Israëlische mensenrechtenschendingen. De impact van elk bedrijf varieert, waarbij sommigen toezicht houden op een groot project, terwijl anderen apparatuur leveren aan een reeds geïnstalleerd systeem.
Who Profits schreef in zijn analyse:
Ongeacht de schaal versterkt het werk van deze bedrijven de capaciteit van een toch al hoogtechnologische en datageoriënteerde Israëlische bezettingseconomie en haar vermogen om Palestijnen aan beide zijden van de Groene Lijn te onteigenen, te onderdrukken, te controleren en te onderwerpen aan alomtegenwoordig toezicht.”
Terwijl talloze Israëlische en internationale bedrijven betrokken zijn bij de Israëlische bezetting, benadrukte Who Profits in zijn rapport vier Amerikaanse technologiebedrijven: Microsoft, IBM, Cisco Systems en Dell Technologies.
DE ROL VAN BIG TECH
Volgens Who Profits heeft het multinationale technologiebedrijf Microsoft – een van de grootste IT-bedrijven ter wereld – een lange geschiedenis van samenwerking met het Israëlische militaire en technische industrie.
De applicatie ‘Al Munaseq’ (de coördinator in het Arabisch) draait op Microsoft Azure, het bedrijfsplatform voor cloud computing-diensten. Het is ontwikkeld door het Israëlische Ministerie van Defensie en wordt gebruikt voor het beheer van vergunningen voor Palestijnen op de bezette Westelijke Jordaanoever en Gaza wanneer zij het in 1948 bezette Palestina of het hedendaagse Israël binnenkomen. De app heeft toegang tot het IP-adres, de camera, de bestanden en de locatie van de telefoon van een vergunninghouder.
Microsoft heeft zich verdiept in de banden van het Israëlische leger met de onderwijssector. Het bedrijf biedt momenteel AI-cursussen aan voor officieren van de eenheid ‘militaire gevechtsmethoden en innovatie’. Het heeft onlangs ook gratis cyberbeveiligingstrainingen voor veteranen gelanceerd en werkt samen met het leger aan een programma om vrouwelijke middelbare scholieren te helpen toegang te krijgen tot hightech-eenheden in het leger.
De belangrijkste zakelijke alliantie van het bedrijf is die met het Israëlische leger, maar levert ook diensten aan de nederzettingen en de overheid. De toepassingen worden gebruikt door studenten en docenten in nederzettingsscholen in Ma’ale Adumim. Microsoft werkt ook samen met Ariel University, de enige Israëlische universiteit in een nederzetting, om gratis gebruik van haar applicaties en e-maildiensten aan te bieden. Ariel University is ook een erkend college van Microsoft en biedt studenten een Microsoft Certified Solutions Associate-cursus aan.
Microsoft Israel, de lokale dochteronderneming van het bedrijf, heeft momenteel een contract met de Israëlische politie om vanaf januari zes maanden lang clouddiensten te leveren en licenties voor Microsoft-producten te leveren tot december 2025.
Dit jaar is Microsoft van plan, na veel vertraging, zijn eerste clouddatacenter te openen in het Modi’in Technology Park, gelegen tussen Tel Aviv en Jeruzalem. Het bedrijf zal naar schatting 1 tot 1,5 miljard dollar uitgeven aan het datacenter.
IT- en computerbedrijf IBM werkt samen met de Israëlische Bevolkings-, Immigratie- en Grenzenautoriteit om het Eitan-systeem te beheren voor de database van het Bevolkingsregister van de overheid. Dit computersysteem slaat de persoonlijke gegevens op van Palestijnse en Syrische mensen die onder Israëlische bezetting leven. De opgeslagen gegevens worden vaak gebruikt om het discriminerende beleid van Israël uit te voeren.
De Israëlische dochterondernemingen van IBM – Red Hat Israel en IBM Israel – werken intensief samen met de IDF. Red Hat levert edge computing en op software gebaseerde opslagdatacentra aan verschillende Israëlische militaire eenheden en is betrokken bij gezamenlijke projecten in de divisies Computer Service en Cyber Defense. In 2020 werd IBM Israel de belangrijkste IT-leverancier voor drie nieuwe militaire regionale logistieke centra.
De Amerikaanse multinational werkt samen met het leger en het ministerie van Onderwijs om de interesse van middelbare scholieren in technologie te vergroten, met als doel de Israëlische defensie- en hi-tech capaciteiten te verbeteren. Vaak betekent dit dat het personeel samen met militaire officieren lezingen geeft op scholen. Het bedrijf heeft ook deelgenomen aan evenementen op de Ariel Universiteit.
IBM werkt ook samen met de Israëlische politie en levert sinds 1975 computer- en softwareapparatuur. Meer recentelijk, in 2018, zette het bedrijf een cyberonderzoekscentrum op in Be’er Sheva, een stad in de Naqab-woestijn, naast een militaire telecommunicatiebasis. en Computer Service Directoraat campus. Het centrum en de locatie ervan maken deel uit van het plan van het Ministerie van Defensie om officieren van de Cyber Unit over te zetten naar de hightechindustrie nadat ze hun dienst hebben beëindigd.
Techgigant Cisco Systems heeft ook technologiehubs gelanceerd in de Naqab, waarvan twee in de Palestijnse bedoeïenensteden Hura en Ar’arat al-Naqab. Deze hubs, samen met het cybercentrum van IBM, maken deel uit van Israëls inspanningen om de Naqab met Joodse Israëliërs te regelen en tegelijkertijd de inheemse bedoeïenengemeenschap te verdrijven. Als onderdeel van plannen om het gebied te verjoodsen, bouwde het Israëlische leger zijn grootste ondergrondse datacentrum voor informatie- en communicatietechnologie in de woestijn, compleet met de computer-, communicatie-, cyberbeveiligings- en taakverdelingssystemen van Cisco Systems.
Daarnaast heeft Cisco Systems drie andere technologiehubs geopend op bezet gebied op de Syrische Golanhoogvlakte en de Westelijke Jordaanoever en is van plan er nog eens vijf te openen in deze bezette gebieden.
Dit jaar won elektronicagigant Dell Technologies een aanbesteding van ruim $150 miljoen van het ministerie van Defensie om het leger te voorzien van servers en onderhoudsdiensten en andere apparatuur. In 2021 heeft de Israëlische dochteronderneming van Dell, VMware Israel, een contract binnengehaald om de Israëlische politie van augustus 2021 tot januari 2027 van haar producten te voorzien.
De virtuele diensten van VMware helpen bij het uitvoeren van het surveillancesysteem van de Israëlische politie in Oost-Jeruzalem, bekend als het Mabat-systeem. Er zijn ongeveer 400 beveiligingscamera’s geïnstalleerd in de oude stad van Jeruzalem, waarbij de videobewaking 24/7 wordt bewaakt door een commando- en controlecentrum van de politie.
De technologische vooruitgang van Israël, die de ‘startup-natie’ wordt genoemd, heeft technologiebedrijven over de hele wereld aangetrokken. Maar naarmate Big Tech steeds meer betrokken raakt bij de Israëlische militaire en technologische industrie, hoe meer zij actief samenwerken met de apartheid en hoe meer Palestijnen en Syriërs onder bezetting digitaal worden uitgebuit.
De Israëlische AI kan honderd bombardementsdoelen per dag in Gaza produceren. Is dit de toekomst van oorlog?
Vorige week kwamen er berichten naar voren dat de Israëlische strijdkrachten (IDF) een systeem voor kunstmatige intelligentie (AI) gebruiken genaamd Habsora (Hebreeuws voor “Het Evangelie”) om doelen te selecteren in de oorlog tegen Hamas in Gaza. Het systeem is naar verluidt gebruikt om meer doelwitten voor bombardementen te vinden, om locaties te koppelen aan Hamas-agenten, en om van tevoren waarschijnlijke aantallen burgerdoden te schatten.< /span>
Wat betekent het dat dit soort AI-targetingsystemen in conflicten worden gebruikt? Mijn onderzoek naar de sociale, politieke en ethische implicaties van militair gebruik van afgelegen en autonome systemen laat zien dat AI het karakter van oorlog nu al verandert.
Legers gebruiken afgelegen en autonome systemen als ‘krachtvermenigvuldigers’ om de impact van hun troepen te vergroten en de levens van hun soldaten te beschermen. AI-systemen kunnen soldaten efficiënter maken en zullen waarschijnlijk de snelheid en dodelijkheid van oorlogsvoering vergroten – zelfs nu mensen minder zichtbaar worden op het slagveld, maar in plaats daarvan inlichtingen en doelwitten van veraf verzamelen.
Als militairen naar believen kunnen doden, met weinig risico voor hun eigen soldaten, zal het huidige ethische denken over oorlog dan de overhand krijgen? Of zal het toenemende gebruik van AI ook de ontmenselijking van tegenstanders en de kloof tussen oorlogen en de samenlevingen in wier naam ze worden uitgevochten vergroten?
AI was binnen
AI heeft impact op alle oorlogsniveaus, van ondersteuning voor “inlichtingen, surveillance en verkenning”, zoals het Habsora-systeem van de IDF, tot “dodelijke autonome wapensystemen” die doelen kunnen kiezen en aanvallen zonder menselijke tussenkomst.
Deze systemen hebben het potentieel om het karakter van oorlog te hervormen, waardoor het gemakkelijker wordt om een conflict aan te gaan. Omdat het complexe en gedistribueerde systemen zijn, kunnen ze het ook moeilijker maken om iemands bedoelingen kenbaar te maken – of die van een tegenstander te interpreteren – in de context van een escalerend conflict.
Daartoe kan AI bijdragen aan desinformatie, waardoor gevaarlijke misverstanden ontstaan en worden versterkt in tijden van oorlog.
AI-systemen kunnen de menselijke neiging vergroten om suggesties van machines te vertrouwen (dit wordt benadrukt door het Habsora-systeem, genoemd naar het onfeilbare woord van God), waardoor onzekerheid ontstaat over in hoeverre het vertrouwen autonome systemen. De grenzen van een AI-systeem dat interageert met andere technologieën en met mensen zijn misschien niet duidelijk, en het kan zijn dat er geen manier is om te weten wie of wat de resultaten ervan heeft “auteur”< a i=4>, hoe objectief en rationeel ze ook lijken.
Machine learning op hoge snelheid
Misschien is een van de meest fundamentele en belangrijke veranderingen die we waarschijnlijk zullen zien, aangedreven door AI, een toename van de snelheid van oorlogvoering. Dit kan de manier veranderen waarop we militaire afschrikking begrijpen, waarbij wordt aangenomen dat mensen de belangrijkste actoren en bronnen van inlichtingen en interactie in oorlog zijn.
Militairen en soldaten kaderen hun besluitvorming via wat de “OODA-lus” wordt genoemd (voor observeren, oriënteren, beslissen, handelen) . Een snellere OODA-lus kan je helpen je vijand te slim af te zijn. Het doel is om te voorkomen dat beslissingen worden vertraagd door overmatig overleg, en in plaats daarvan om het steeds snellere oorlogstempo te volgen.
Het gebruik van AI is dus potentieel gerechtvaardigd omdat het enorme hoeveelheden gegevens kan interpreteren en synthetiseren, deze kan verwerken en output kan leveren met een snelheid die de menselijke cognitie ver overtreft.
Maar waar is de ruimte voor ethisch overleg in een steeds snellere en datacentrische OODA-luscyclus die zich op veilige afstand van de strijd afspeelt?
Israëls targetingsoftware is een voorbeeld van deze versnelling. Een voormalig hoofd van de IDF heeft gezegd dat menselijke inlichtingenanalisten elk jaar vijftig bombardementsdoelen in Gaza kunnen produceren, maar dat het Habsora-systeem 100 doelen per dag kan produceren. , samen met realtime aanbevelingen welke aanvallen moeten worden uitgevoerd.
Hoe produceert het systeem deze doelstellingen? Dit gebeurt door middel van probabilistische redenering die wordt aangeboden door machine learning-algoritmen.
Machine learning-algoritmen leren door middel van data. Ze leren door patronen te zoeken in enorme stapels gegevens, en hun succes is afhankelijk van de kwaliteit en kwantiteit van de gegevens. Ze doen aanbevelingen op basis van waarschijnlijkheden.
De kansen zijn gebaseerd op patroonmatching. Als een persoon voldoende overeenkomsten heeft met andere mensen die als vijandelijke strijder worden bestempeld, kan hij of zij zelf ook als strijder worden bestempeld.
Het probleem van AI maakte het mogelijk om op afstand te richten
Sommigen beweren dat machinaal leren grotere precisie bij het richten mogelijk maakt, waardoor het gemakkelijker wordt om schade aan onschuldige mensen te voorkomen en een evenredige hoeveelheid geweld te gebruiken. Het idee om luchtaanvallen nauwkeuriger te richten is in het verleden echter niet succesvol geweest, omdat de hoge tol van verklaarde en niet-aangegeven burgerslachtoffers als gevolg van de wereldoorlog op terreurshows.
Bovendien is het verschil tussen een strijder en een burger zelden vanzelfsprekend. Zelfs mensen kunnen vaak niet zeggen wie wel en niet een strijder is.
Technologie verandert niets aan deze fundamentele waarheid. Vaak zijn sociale categorieën en concepten niet objectief, maar omstreden of tijd- en plaatsspecifiek. Maar computervisie en algoritmen zijn effectiever in voorspelbare omgevingen waar concepten objectief, redelijk stabiel en intern consistent zijn.
Zal AI oorlog erger maken?
We leven in een tijd van onrechtvaardige oorlogen en militaire bezettingen, flagrante schendingen van de regels van betrokkenheid en een beginnende wapenwedloop in het licht van de rivaliteit tussen de VS en China. In deze context kan de integratie van AI in oorlogen nieuwe complexiteiten toevoegen die de schade eerder verergeren dan voorkomen.
AI-systemen maken het gemakkelijker voor oorlogsactoren om anoniem te blijven, en kunnen de bron van geweld of de beslissingen die daartoe leiden onzichtbaar maken Het. Op zijn beurt kunnen we een toenemende kloof zien tussen legers, soldaten en burgers, en de oorlogen die worden uitgevochten in naam van de natie die zij dienen.
En naarmate AI in oorlogen steeds gebruikelijker wordt, zullen legers tegenmaatregelen ontwikkelen om deze te ondermijnen, waardoor een spiraal van escalerende militarisering ontstaat.
Wat nu?
Kunnen we AI-systemen beheersen om een toekomst te voorkomen waarin oorlogsvoering wordt aangedreven door een toenemende afhankelijkheid van technologie, ondersteund door leeralgoritmen? Het beheersen van de AI-ontwikkeling op welk gebied dan ook, vooral via wet- en regelgeving, is moeilijk gebleken.
Velen suggereren dat we betere wetten nodig hebben om rekening te houden met systemen die worden ondersteund door machinaal leren, maar zelfs dit is niet eenvoudig. Machine learning-algoritmen zijn moeilijk te reguleren.
Wapens op basis van AI kunnen zichzelf programmeren en updaten, waardoor de wettelijke vereisten voor zekerheid worden omzeild. De technische stelregel ‘software is nooit klaar’ houdt in dat de wet wellicht nooit de snelheid van technologische veranderingen zal kunnen evenaren.
De kwantitatieve handeling van het vooraf inschatten van waarschijnlijke aantallen burgerdoden, zoals het Habsora-systeem doet, vertelt ons niet veel over de kwalitatieve dimensies van targeting. Systemen als Habsora kunnen ons op zichzelf niet echt veel vertellen over de vraag of een staking ethisch of legaal zou zijn (dat wil zeggen, of deze onder andere proportioneel, discriminerend en noodzakelijk is).
AI moet democratische idealen ondersteunen, en niet ondermijnen. Het vertrouwen in regeringen, instellingen en legers is aan het eroderen en moet worden hersteld als we van plan zijn AI toe te passen op een reeks militaire praktijken. We moeten kritische ethische en politieke analyses inzetten om opkomende technologieën en hun effecten te ondervragen, zodat elke vorm van militair geweld als het laatste redmiddel wordt beschouwd.
Tot die tijd kunnen machine learning-algoritmen het beste gescheiden worden gehouden van targetingpraktijken. Helaas gaan de legers van de wereld in de tegenovergestelde richting.