AI is al in oorlog. Hoe kunstmatige intelligentie het leger zal transformeren.
AI In 2002 oefende een speciaal operatieteam met het overvallen van een safehouse. Het team naderde zwijgend een gebouw van twee verdiepingen, gebouwd voor militaire training, waar een fictieve terroristenleider zich schuilhield. Eén soldaat kroop naar een open raam en gooide er een kleine drone in, bestuurd door kunstmatige intelligentie. De AI- drone begon autonoom door het gebouw te vliegen, kamer voor kamer, en stuurde beelden van de camera rechtstreeks naar de draagbare tablet van de commandant buiten.
Binnen een paar minuten had het team volledig inzicht in de situatie van het interieur van het gebouw. Het wist welke kamers leeg waren, welke werden bewoond door slapende familieleden en waar het primaire doelwit was. Het team ging het gebouw binnen en wist precies waar het heen moest, waardoor het risico voor elk lid werd verkleind. De oefening was een succes: als deze echt was geweest, zou het team de terroristenleider hebben vermoord.
De AI -bestuurde quadcopter, ontworpen door Shield AI (waar ik adviseur was), wordt sindsdien gebruikt in operaties in de echte wereld. Het is slechts een van de vele manieren waarop AI de Amerikaanse nationale veiligheid begint te hervormen. Het Amerikaanse leger gebruikt AI om alles te optimaliseren, van apparatuuronderhoud tot budgetbeslissingen. Inlichtingenanalisten vertrouwen op AI om snel bergen informatie te scannen om relevante patronen te identificeren die hen in staat stellen betere en snellere oordelen te vellen.
In de toekomst kunnen Amerikanen verwachten dat AI ook de manier zal veranderen waarop de Verenigde Staten en hun tegenstanders op het slagveld vechten. Kortom, AI heeft een veiligheidsrevolutie teweeggebracht, een revolutie die zich nog maar net begint te ontvouwen.
Nu AI in het publieke bewustzijn is doorgedrongen, hebben sommige onderzoekers, die zich zorgen maken over de gevaren van AI , opgeroepen tot een pauze in de ontwikkeling. Maar het stoppen van de Amerikaanse vooruitgang op het gebied van AI is onmogelijk: de wiskundige grondslagen van AI zijn alomtegenwoordig, de menselijke vaardigheden om AI- modellen te creëren zijn wijd verspreid, en de drijvende krachten achter AI- onderzoek en -ontwikkeling – zowel menselijke creativiteit als commercieel gewin – zijn zeer krachtig.
Proberen de vooruitgang tegen te houden zou ook een vergissing zijn. China werkt er hard aan om de Verenigde Staten te overtreffen op het gebied van AI , vooral als het gaat om militaire toepassingen. Als het daarin slaagt, zou Peking over een veel krachtiger leger beschikken, een leger dat potentieel in staat is om het tempo en het effect van zijn operaties verder te vergroten dan wat de Verenigde Staten kunnen evenaren.
Het vermogen van China om cyber- en elektronische oorlogvoering te gebruiken tegen Amerikaanse netwerken en kritieke infrastructuur zou ook gevaarlijk worden vergroot. Simpel gezegd: het Pentagon moet de adoptie van verantwoorde AI versnellen (en niet vertragen) . Als dat niet het geval is, zou Washington de militaire superioriteit kunnen verliezen die de belangen van de Verenigde Staten, de veiligheid van hun bondgenoten en partners, en de op regels gebaseerde internationale orde ondersteunt.
Acceleratie is echter gemakkelijker gezegd dan gedaan. De Verenigde Staten kunnen de wereld leiden als het gaat om onderzoek en ontwikkeling op het gebied van kunstmatige intelligentie, maar de Amerikaanse regering worstelt nog steeds met het snel en op grote schaal adopteren van innovatieve technologieën zoals AI . Er zijn niet genoeg professionals in dienst met de technische expertise die nodig is om AI- producten te testen, evalueren, aanschaffen en beheren.
Het bouwt nog steeds aan de data- en computerinfrastructuur die nodig is om grote AI- modellen te ondersteunen. Het ontbreekt aan de flexibele financiering die nodig is om snel de meest veelbelovende AI- prototypes te ontwikkelen en deze over verschillende instanties heen te schalen. En het moet nog de test- en evaluatieprocessen en platforms opbouwen die nodig zijn om ervoor te zorgen dat elke AI die in militaire systemen wordt geïntegreerd, veilig en vertrouwd is. Wanneer AI een rol speelt bij het gebruik van geweld, moet de lat voor veiligheid en betrouwbaarheid zeer hoog blijven.
Politici en defensiefunctionarissen zijn zich bewust van deze kwesties. Congresleiders besteden veel aandacht aan AI en bespreken hoe ze de industrie kunnen reguleren en toch mondiaal concurrerend kunnen houden. Het kabinet van de minister van Defensie heeft een beleidskader voor AI uitgevaardigd om de verantwoorde en veilige adoptie ervan door het ministerie van Defensie te bespoedigen. De essentiële inspanning om tegelijkertijd AI te bevorderen en vangrails rond het gebruik ervan te plaatsen – doelstellingen die schijnbaar onder spanning staan – is gaande.
Maar het Congres moet nog actie ondernemen, en de implementatie van het AI- raamwerk van het Pentagon is nog steeds een werk in uitvoering. Hoewel de oprichting van een Chief Digital and Artificial Intelligence Office bij het Ministerie van Defensie een belangrijke mijlpaal was, moet het Congres dit bureau nog voorzien van de middelen die het nodig heeft om verantwoorde AI- adoptie binnen het hele defensie-establishment te stimuleren.
Om ervoor te zorgen dat AI- defensietoepassingen zowel veilig als succesvol zijn, zal het Pentagon de AI- vangrails verder moeten versterken, nieuw technisch personeel moeten toevoegen en nieuwe manieren moeten ontwikkelen om AI te testen en aan te schaffen . Tijd is van essentieel belang, en de inzet is te hoog voor de Verenigde Staten om achterop te raken.
HIER EN NU
Zelfs nu er nog steeds beleid en regelgeving wordt geschreven, transformeert AI de Amerikaanse veiligheid al. De Amerikaanse luchtmacht begint bijvoorbeeld AI te gebruiken om haar te helpen middelen toe te wijzen en te voorspellen hoe een enkel besluit haar programma en budget kan hervormen.
Als luchtmachtleiders bijvoorbeeld nog een squadron F-35’s toevoegen, kan hun AI -gebaseerde platform voor de toewijzing van middelen onmiddellijk niet alleen de directe kosten van de beslissing onder de aandacht brengen, maar ook de gevolgen ervan voor personeel, bases, beschikbaarheid van vliegtuigen en andere belangrijke domeinen. .
Op dezelfde manier begint het leger AI- modellen te gebruiken bij het onderhoud van complexe wapensystemen, van schepen tot straaljagers. A I- programma’s kunnen nu gegevens verzamelen van de sensoren van een platform en voorspellen wanneer en welk soort onderhoud de gereedheid en levensduur ervan zal maximaliseren, terwijl de kosten worden geminimaliseerd.
Deze onderhoudsinzichten zijn enorm nuttig en vormen nog maar het begin van wat voorspellende AI kan doen. De Amerikaanse inlichtingengemeenschap en verschillende Amerikaanse strijderscommando’s – de gezamenlijke militaire commando’s met operationele verantwoordelijkheid voor een bepaalde regio of functie – gebruiken AI om enorme hoeveelheden geheime en niet-geclassificeerde gegevens te doorzoeken om gedragspatronen te identificeren en toekomstige internationale gebeurtenissen te voorspellen.
In de inlichtingengemeenschap hielp AI analisten maanden van tevoren de Russische invasie van Oekraïne te voorspellen , waardoor de Verenigde Staten de wereld konden waarschuwen en de Russische president Vladimir Poetin het verrassingselement konden ontzeggen. Bij het US Strategic Command wordt AI ontwikkeld door Rhombus Power (waar ik adviseur ben) gebruikt om functionarissen te waarschuwen voor de beweging van nucleair bewapende raketten die in het verleden vaak aan detectie ontkwamen.
Voorspellende AI zou Washington ook een beter inzicht kunnen geven in wat zijn potentiële tegenstanders zouden kunnen denken, vooral de leiders in Peking. Anders dan tijdens het hoogtepunt van de Koude Oorlog , toen er legioenen experts waren op het gebied van de Sovjet-besluitvorming, zijn de Verenigde Staten nog steeds aan het uitzoeken hoe het Chinese leiderschap beleid in specifieke acties vertaalt.
De inlichtingengemeenschap zou bijvoorbeeld een groot taalmodel kunnen ontwikkelen dat alle beschikbare geschriften en toespraken van Chinese leiders zou kunnen verwerken, evenals Amerikaanse inlichtingenrapporten over deze cijfers, en vervolgens zou kunnen nabootsen hoe de Chinese president Xi Jinping zou kunnen besluiten het vastgestelde beleid uit te voeren.
Analisten zouden het model specifieke vragen kunnen stellen – “Onder welke omstandigheden zou president Xi bereid zijn geweld te gebruiken tegen Taiwan?” – en kunnen anticiperen op mogelijke reacties op basis van een schat aan gegevens uit meer bronnen dan enig mens ooit snel zou kunnen synthetiseren. Ze zouden het model zelfs kunnen vragen om in kaart te brengen hoe een crisis zich zou kunnen ontvouwen en hoe verschillende beslissingen de uitkomst zouden bepalen.
De resulterende inzichten zouden nuttig kunnen zijn bij het informeren van analisten en beleidsmakers, op voorwaarde dat de trainingssets transparant waren (wat betekent dat ze de gegevensbronnen citeren die ten grondslag liggen aan belangrijke oordelen) en vertrouwd waren (niet vatbaar voor ‘hallucinaties’ – onverklaarbare gevolgtrekkingen gemaakt door AI ) .
AI heeft een veiligheidsrevolutie teweeggebracht die zich nog maar net begint te ontvouwen.
Inlichtingenofficieren gebruiken AI al dagelijks om duizenden foto’s en video’s te doorzoeken. In het verleden moesten analisten duizenden uren full-motion video bekijken om interessante objecten te vinden en te taggen, of het nu om een concentratie van tanks of verspreide mobiele raketten ging. Maar met AI kunnen ontwikkelaars een model trainen om al dit materiaal te onderzoeken en alleen de objecten te identificeren waarnaar de analist op zoek is – meestal binnen enkele seconden of minuten.
De analist kan het AI- model ook zo instellen dat er een waarschuwing wordt verzonden wanneer er in een bepaald geografisch gebied een nieuw interessant object wordt gevonden. Deze ‘computer vision’-tools stellen analisten in staat meer tijd te besteden aan wat alleen mensen kunnen doen: hun expertise en oordeelsvermogen toepassen om de betekenis en implicaties te beoordelen van wat AI ontdekt.
Naarmate deze modellen nauwkeuriger en betrouwbaarder worden, hebben ze het potentieel om Amerikaanse commandanten ter plaatse te helpen kritische operationele beslissingen veel sneller te nemen dan een tegenstander kan reageren, waardoor de Amerikaanse strijdkrachten een enorm – misschien zelfs beslissend – voordeel krijgen.
A Ik zou militaire operaties ook op andere manieren kunnen ondersteunen. Als een tegenstander bijvoorbeeld Amerikaanse commando-, controle- en communicatienetwerken zou blokkeren of aanvallen, zou AI een slimme schakel- en routeringsagent mogelijk kunnen maken die de informatiestroom tussen sensoren, besluitvormers en schutters zou omleiden om ervoor te zorgen dat ze blijven verbonden en kan het situationele bewustzijn behouden.
Het beschikken over deze capaciteiten zal van cruciaal belang zijn om ervoor te zorgen dat Washington en zijn bondgenoten sneller betere beslissingen kunnen nemen dan hun tegenstanders, zelfs in het heetst van de strijd.
A Ik zou de Amerikaanse en geallieerde strijdkrachten verder kunnen helpen door het werk van individuele militairen in het veld te versterken. Sommige AI -toepassingen die momenteel in ontwikkeling zijn, maken het mogelijk dat één menselijke operator meerdere onbemande systemen bestuurt, zoals een zwerm drones in de lucht, op het water of onder water. Een gevechtspiloot zou bijvoorbeeld een zwerm vliegende drones kunnen gebruiken om het radar- en luchtverdedigingssysteem van een tegenstander te verwarren of te overweldigen.
Een onderzeebootcommandant zou onderzeese onbemande voertuigen kunnen gebruiken om verkenningen uit te voeren in een zwaar verdedigd gebied of om op jacht te gaan naar onderzeese mijnen die Amerikaanse en geallieerde schepen bedreigen. Het Pentagon heeft onlangs zijn Replicator-droneprogramma aangekondigd, dat belooft binnen de komende twee jaar duizenden kleine, slimme, goedkope, vervangbare, autonome systemen in gebruik te nemen.
In een conflict met China over Taiwan zou deze samenwerking tussen mens en machine van cruciaal belang kunnen zijn. Als Peking besluit geweld te gebruiken om het eiland te claimen, zal China het voordeel hebben dat het in zijn eigen achtertuin kan vechten, waardoor het gemakkelijker zijn krachten kan bundelen.
De Verenigde Staten zullen intussen hun eenheden over lange afstanden en in veel minder aantallen sturen. Als het Amerikaanse leger zijn bemande platforms zoals gevechtsvliegtuigen, bommenwerpers, schepen en onderzeeërs kan uitbreiden met grote aantallen relatief goedkope onbemande systemen, zou het dit relatieve nadeel enigszins kunnen compenseren en de operaties van het Chinese leger enorm kunnen compliceren.
SPEEL HET GOED
Peking is uiteraard niet van plan de technologische dominantie aan Washington af te staan. Het land werkt hard aan de ontwikkeling van zijn eigen geavanceerde AI- militaire toepassingen. China investeert zwaar in veel van dezelfde AI- gebruiksscenario’s als de Verenigde Staten, zoals surveillance, doelidentificatie en drone-zwermen. Het verschil is dat het land wellicht niet gebonden is aan dezelfde ethische beperkingen als de Verenigde Staten en zijn bondgenoten, vooral als het gaat om het gebruik van volledig autonome wapensystemen.
In de race om technologische suprematie heeft China een aantal duidelijke voordelen. In tegenstelling tot Washington kan Peking de economische prioriteiten van zijn land dicteren en alle middelen toewijzen die het nodig acht om de AI- doelen te bereiken. Het Chinese nationale veiligheidsbeleid moedigt Chinese hackers, functionarissen en werknemers aan om westerse intellectuele eigendommen te stelen, en Peking is onbeschaamd in zijn pogingen om vooraanstaande westerse technologen te werven om met Chinese instellingen samen te werken.
Omdat China een beleid voert van ‘civiel-militaire fusie’, dat de barrières tussen zijn civiele en militaire sectoren wegneemt, kan het Volksbevrijdingsleger op elk gewenst moment een beroep doen op het werk van Chinese experts en bedrijven. En tegen 2025 zal China bijna twee keer zoveel Ph.D. kandidaten op het gebied van wetenschap, technologie, techniek en wiskunde, zoals de Verenigde Staten dat doen, waardoor de Chinese economie vooral wordt overspoeld met getalenteerde computerwetenschappers.
Maar de Verenigde Staten hebben hun eigen unieke sterke punten. De marktgebaseerde economie van het land en het meer open politieke systeem geven ontwikkelaars de ruimte om creatief te zijn. Het beschikt over ongeëvenaarde innovatie-ecosystemen in Silicon Valley, het grootstedelijk gebied van Austin, de Massachusetts Route 128-corridor en elders. De Verenigde Staten hebben ook een levendig durfkapitaal- en private equity-ecosysteem dat onvergelijkbare binnenlandse en internationale investeringen aantrekt.
Het is de thuisbasis van veel van ’s werelds toonaangevende universiteiten, waardoor het een aantal van ’s werelds beste technologietalenten kan aantrekken en behouden. De helft van de startups in Silicon Valley heeft minstens één oprichter die een immigrant is. Zelfs onder degenen die de snelle vooruitgang van China op het gebied van AI betreuren , zouden weinig of geen mensen de hand van de Verenigde Staten willen ruilen voor die van China. Maar ze zijn het er bijna allemaal over eens dat de Verenigde Staten beter hun best moeten doen om te winnen.
Om dit te bereiken zullen het ministerie van Defensie en de inlichtingengemeenschap meer moeten investeren in het versnellen van de adoptie van AI . Ze kunnen beginnen met het bouwen van gemeenschappelijke digitale infrastructuursystemen die dezelfde normen delen om interoperabiliteit te garanderen.
De infrastructuur zou cloudgebaseerde technologieën en diensten omvatten; gemeenschappelijke datastandaarden; gevalideerde datasets; gedeelde toegang tot beveiligde softwarestacks; geavanceerde tools voor het testen, evalueren en valideren van AI- modellen; en veilige applicatieprogrammeringsinterfaces die bepalen wie toegang krijgt tot welke informatie op verschillende classificatieniveaus. Het doel zou zijn om ontwikkelaars de data, algoritmen, tools en rekenkracht (of snelle rekenkracht) te geven die ze nodig hebben om nieuwe AI- tools te creëren, testen, valideren en gebruiken.
Die instrumenten zullen uiteraard maar zo goed zijn als de mensen die ze bedienen, en op dit moment beschikt het ministerie van Defensie niet over een digitaal bedreven personeelsbestand. Er zijn maar weinig medewerkers die voldoende over AI begrijpen om het gebruik ervan goed te kunnen beheersen, om AI- instrumenten te testen en te evalueren om er zeker van te zijn dat ze voldoen aan de ‘verantwoordelijke AI’ -normen van het Pentagon , of om te beoordelen welke AI- modellen het beste voldoen aan de behoeften van het leger of het ministerie van Defensie – een van de grootste ondernemingen ter wereld.
Om meer AI- talent aan te trekken en beter gebruik te maken van de technische beroepsbevolking die het al heeft, zal het ministerie van Defensie de manier moeten verbeteren waarop het digitaal vaardige werknemers rekruteert en beheert. Het Pentagon kan beginnen door het advies van de National Security Commission over AI op te volgen en een digitaal korps op te richten (naar het voorbeeld van het Army Medical Corps) om technologen te organiseren, op te leiden en uit te rusten.
Bovendien zouden alle bestaande militaire dienstacademies moeten beginnen met het onderwijzen van de basisprincipes van AI , en het Pentagon zou ook een Amerikaanse digitale dienstacademie moeten oprichten die aspirant-burgertechnologen zou opleiden en opleiden, door hen een gratis universitaire opleiding aan te bieden in ruil voor een toewijding om te dienen. na zijn afstuderen minimaal vijf jaar in de regering. Ten slotte zou het ministerie van Defensie een digitaal reservekorps moeten creëren waarin technologiewerkers uit de hele Verenigde Staten zich parttime kunnen inzetten om hun land te dienen.
Het Pentagon zal echter nooit zoveel AI- experts kunnen aantrekken als de particuliere sector. Het defensie-establishment moet daarom de manier verbeteren waarop het talent van buitenaf benut. Om te beginnen zou het ministerie van Defensie zijn gesprekken met technologiebedrijven en de computerwetenschappenafdelingen van vooraanstaande universiteiten moeten verdiepen.
Het zou ook enkele verouderde barrières moeten wegnemen die technologiebedrijven tegenhouden om zaken te doen met de overheid. Om dit te doen moeten defensiefunctionarissen heroverwegen hoe zij op software gebaseerde producten en diensten, waaronder AI , kopen .
In plaats van er jaren over te doen om een vaste reeks zeer specifieke vereisten te ontwikkelen – zoals het ministerie doet bij de aanschaf van militaire hardware – zou het snel de specifieke problemen moeten identificeren die het probeert op te lossen en de gemeenschappelijke normen waaraan alle voorgestelde oplossingen moeten voldoen, en vervolgens bedrijven in staat moeten stellen om oplossingen bieden in een concurrerend biedproces. Het moet er ook voor zorgen dat de mensen die de specifieke AI- tools daadwerkelijk gaan gebruiken, feedback kunnen geven terwijl modellen worden ontwikkeld en getest.
In feite zou het Pentagon een speciaal carrièrepad moeten creëren voor acquisitieprofessionals die zich willen specialiseren in AI en andere commercieel gedreven technologieën. Het merendeel van het huidige acquisitiekorps van het ministerie van Defensie is getraind in het kopen van complexe wapensystemen, zoals onderzeeërs, raketten en straaljagers, wat vereist dat er nauwgezet op wordt gelet of aannemers voldoen aan strenge specificaties, kosteneisen en geplande mijlpalen.
Als gevolg hiervan zijn de meeste van deze professionals (begrijpelijkerwijs) zeer risicomijdend: ze zijn niet opgeleid of gestimuleerd om zich snel ontwikkelende commerciële technologieën te kopen of om een bestaand meerjarig acquisitieprogramma te verstoren om een effectievere nieuwe technologie te integreren.
Het Pentagon zou daarom een nieuwe lichting acquisitie-experts moeten creëren die specifiek zijn opgeleid om dit soort systemen te kopen. Dit kader moet worden beschouwd als de Groene Baretten van de acquisitiemacht, en haar leden moeten worden beloond en gepromoveerd op basis van hun vermogen om snel noodzakelijke commerciële technologieën, zoals AI, te leveren en op te schalen .
Peking is niet van plan de technologische dominantie aan Washington af te staan.
Hoewel interne hervormingen het Pentagon zullen helpen de vooruitgang te versnellen, zullen defensiefunctionarissen ook aanhoudende steun van het Congres nodig hebben om gelijke tred te kunnen houden met hun Chinese tegenhangers. Daartoe zou het Congres het ministerie van Defensie flexibelere financiering moeten geven, waardoor het AI- programma’s optimaal kan beheren. De meeste kredieten van het Pentagon staan vast: als het Congres een programma financiert, kan het ministerie het geld niet zomaar aan iets anders besteden.
Maar AI evolueert zo snel, en in zoveel verschillende richtingen, dat defensiefunctionarissen meer herprogrammeringsautoriteiten en flexibelere financiering nodig hebben, zodat ze snel geld uit ondermaats presterende projecten kunnen halen en het kunnen herinvesteren in veelbelovender projecten, waarbij het Congres hiervan op de hoogte wordt gesteld. Deze aanpak is van cruciaal belang om het Pentagon in staat te stellen AI met meer flexibiliteit en snelheid in te voeren .
Het Congres zou tegelijkertijd het Chief Digital and Artificial Intelligence Office moeten voorzien van overbruggingsfinanciering om veelbelovende AI- proefprojecten te helpen de zogenaamde valley of death te doorbreken – de moeilijke periode tussen het moment waarop een project succes vertoont en het moment waarop het departement klaar is om er een volwaardig project van te maken. schaalprogramma van record. Het Amerikaanse leger kan het zich eenvoudigweg niet veroorloven om de adoptie van een cruciaal AI-instrument dat in 2023 opduikt, uit te stellen tot de begroting voor 2025 of later.
De Verenigde Staten zullen ook het beste technologietalent ter wereld moeten blijven aantrekken, onder meer door elementen van het Amerikaanse immigratiesysteem te hervormen. Studenten en werknemers op het gebied van wetenschap en technologie willen misschien wel naar de Verenigde Staten komen en er blijven, maar de Byzantijnse immigratieregels maken het voor velen van hen onmogelijk om dat te doen.
Met onderwijsvisa kunnen buitenlandse studenten bijvoorbeeld niet langer dan drie jaar na hun afstuderen in de Verenigde Staten blijven. De resulterende dynamiek is pervers: Amerikaanse instellingen leiden veel van ’s werelds beste technologie-experts op, om ze vervolgens weg te sturen. Velen van hen zijn Chinees en keren terug naar China.
Bovendien zorgen de door het Congres opgelegde plafonds voor H-1B-visa – het visum dat de Verenigde Staten het meest aanbieden aan geschoolde werknemers – ervoor dat het land slechts een klein percentage van de mensen kan binnenhalen die een aanvraag indienen.
Uit de 758.994 in aanmerking komende elektronische registraties die tijdens de H-1B-loterij van 2023 zijn ontvangen, zijn bijvoorbeeld slechts 110.791 mensen geselecteerd (of minder dan 15 procent). Kortom, de Verenigde Staten houden het broodnodige buitenlandse talent buiten dat bereidwillig en betekenisvol zou bijdragen aan het vermogen van het land om te concurreren op het gebied van AI en andere cruciale technologieën.
HOOG RISICO, HOGE BELONING
Een I is onmisbaar voor de toekomstige veiligheid van de Verenigde Staten. Maar het brengt ook grote risico’s met zich mee. A I versnelt nu al de verspreiding van desinformatie online en vergemakkelijkt onbedoelde discriminatie bij het aannemen van personeel. Computerwetenschappers hebben betoogd dat het ook geautomatiseerde cyberaanvallen met ‘machinesnelheden’ mogelijk zou kunnen maken.
Chemici hebben aangetoond dat AI chemische wapens kan synthetiseren, en biologen hebben hun bezorgdheid geuit dat het zou kunnen worden gebruikt om nieuwe ziekteverwekkers of biowapens te ontwerpen. De risico’s zijn zo ernstig dat zelfs leiders uit de AI- industrie hun alarm hebben geuit. In mei 2023 ondertekenden de hoofden van bijna elk groot Amerikaans AI- laboratorium een brief waarin ze waarschuwden dat hun uitvindingen een existentiële bedreiging voor de mensheid zouden kunnen vormen.
Nationale veiligheid is inderdaad het terrein van menselijke activiteit waar de risico’s van AI het grootst zijn. AI – modellen kunnen bijvoorbeeld mensen of objecten ten onrechte als doelwitten identificeren, wat tijdens conflicten tot onbedoelde dood en vernietiging kan leiden. Black box AI- modellen – waarvan de redenering niet adequaat kan worden begrepen of uitgelegd – kunnen militaire planners ertoe aanzetten gevaarlijke beslissingen te nemen.
Dit risico zou het meest acuut zijn als AI die voor de ene situatie is ontwikkeld, zonder voldoende tests en toezicht in een andere situatie zou worden toegepast. Wat in de ene situatie volkomen rationeel en verantwoordelijk kan zijn, kan in een andere situatie irrationeel en gevaarlijk zijn.
De risico’s komen niet alleen voort uit slecht ontworpen of onzorgvuldig gebruikte systemen. De Verenigde Staten zouden kieskeurig kunnen zijn bij het ontwikkelen en implementeren van AI , alleen als hun tegenstanders manieren zouden vinden om Amerikaanse gegevens te corrumperen, waardoor systemen in de war zouden raken.
Als een tegenstander er bijvoorbeeld in zou slagen een door AI ondersteund computervisiehulpmiddel te vervalsen zodat het zich richt op een civiel voertuig in plaats van op een militair voertuig, zou dit ertoe kunnen leiden dat de Verenigde Staten onbedoeld burgers in een conflictgebied schade toebrengen, waardoor de geloofwaardigheid en het morele gezag van de VS worden ondermijnd.
Een tegenstander kan ook gegevens corrumperen op een manier die de prestaties van een door AI ondersteund wapensysteem zou verslechteren of ervoor zou kunnen zorgen dat het wordt uitgeschakeld.
Het Pentagon is zich bewust van deze risico’s en heeft in februari 2020 een reeks ethische principes uitgevaardigd die bepalen hoe AI moet worden gebruikt. Eén principe riep het personeel van de afdeling op om oordeelsvermogen en zorgvuldigheid te betrachten bij het ontwikkelen, inzetten en gebruiken van AI- capaciteiten. Een ander zei dat het ministerie van Defensie zal proberen “onbedoelde vooroordelen in AI- capaciteiten tot een minimum te beperken.”
Een derde riep op om ervoor te zorgen dat alle AI wordt gemaakt en gebruikt op een manier die kan worden begrepen en uitgelegd – met gegevens en methodologieën die transparant en controleerbaar zijn. En defensieleiders hebben hun werknemers opgedragen ervoor te zorgen dat AI- systemen rigoureus worden getest op hun veiligheid, beveiliging en effectiviteit; dat AI- systemen worden toegewezen aan duidelijk gedefinieerde toepassingen; en dat AI- systemen kunnen worden uitgeschakeld of gedeactiveerd als ze onbedoeld gedrag vertonen.
Voor autonome en semi-autonome wapens heeft het ministerie van Defensie zelfs nog specifiekere richtlijnen uitgegeven. De leiders van het Pentagon hebben commandanten en operators opdracht gegeven zorgvuldig te oordelen over op AI gebaseerde wapens, onder meer door ervoor te zorgen dat deze wapens worden gebruikt op manieren die consistent zijn met de parameters van de training van het model en met de regels voor de operatie waarin de AI wordt ingezet.
De regels van het ministerie van Defensie bepalen ook dat commandanten AI gebruiken in overeenstemming met het oorlogsrecht. Elk door AI ondersteund wapen moet bijvoorbeeld onderscheid kunnen maken tussen strijders en niet-strijders op het slagveld, en kunnen vermijden dat zij zich opzettelijk op laatstgenoemden richten. Het Pentagon heeft ook het gebruik van AI in zijn nucleaire commando- en controlesystemen verboden, en heeft er bij andere kernmachten op aangedrongen hetzelfde te doen.
Onder de leiders van de Amerikaanse defensiegemeenschap hebben deze ‘verantwoordelijke AI’ -regels een grote consensus bereikt. Maar het in de praktijk brengen ervan is geen kleine uitdaging – vooral gezien de omvang van het Amerikaanse defensieapparaat.
Het Pentagon is het proces begonnen door een bestuursorgaan op hoog niveau op te richten, dat begint met het opzetten van data- en digitale infrastructuur ter ondersteuning van een verscheidenheid aan AI- toepassingen; het uitbouwen van de test-, evaluatie- en validatiemogelijkheden die nodig zijn om naleving van de AI- principes van het ministerie van Defensie te garanderen; en het vergroten van het AI- bewustzijn op de hele afdeling. Dit implementatieproces staat nog in de kinderschoenen. Maar het beleidskader biedt een solide basis waarop kan worden voortgebouwd.
Toch zou het Pentagon er verstandig aan doen deze richtlijnen verder te versterken. Defensiefunctionarissen zouden bijvoorbeeld moeten eisen dat alle AI- leveranciers het ministerie van Defensie volledige transparantie geven over de oorsprong van de gegevens die zij in hun trainingssets gebruiken. Bovendien moet de afdeling ervoor zorgen dat het gedrag van elk AI- model dat zij hanteert verklaarbaar is (volledig begrepen door de gebruikers en ontwikkelaars), zonder innovatie te belemmeren. Het kan dit doen door de manier waarop het systemen test, evalueert en verifieert, te versterken.
Het departement zou ook het werk van het Defense Advanced Research Projects Agency – een van de entiteiten die verantwoordelijk zijn voor de ontwikkeling van opkomende technologieën voor het leger – moeten opschalen en verbreden om ervoor te zorgen dat AI-instrumenten door hun ontwerp verklaarbaar en verantwoordelijk zijn. Met andere woorden, de ethische principes van het departement moeten worden behandeld als vereiste eigenschappen die vanaf het begin bepalen hoe defensie- AI- modellen worden ontworpen.
Amerikaanse instellingen leiden veel van de beste technologie-experts ter wereld op, om ze vervolgens weg te sturen.
Maar de Amerikaanse defensiegemeenschap zal de adoptie van AI niet kunnen bespoedigen tenzij het publiek gelooft dat zij AI zal gebruiken op manieren die effectief, verantwoordelijk, ethisch en wettig zijn. Anders zal de eerste keer dat een AI- toepassing tot een zeer slechte beslissing of ernstige onbedoelde gevolgen op het slagveld leidt, oorlogsstrijders er waarschijnlijk niet op vertrouwen, en zullen beleidsmakers en wetgevers het gebruik ervan waarschijnlijk opschorten of verbieden.
Het ministerie van Defensie moet daarom zijn investeringen in het onderzoek en de ontwikkeling van AI- veiligheid en -beveiliging verhogen. Het moet transparant zijn over waar het AI wel en niet voor zal gebruiken. En het Pentagon zou moeten overwegen om zijn leveranciers vangrails te laten opleggen over de manier waarop zij AI ontwikkelen .
Als een bedrijf bijvoorbeeld AI aan het leger wil leveren , kan het ministerie van Defensie van het bedrijf eisen dat het voldoet aan strenge normen voor gegevensbescherming en cyberbeveiliging. Door dit te doen zou het Pentagon AI veiliger kunnen maken , niet alleen voor de strijdkrachten, maar voor iedereen.
De Verenigde Staten kunnen er uiteraard niet in hun eentje voor zorgen dat AI op verantwoorde wijze wordt ontwikkeld en gebruikt. Andere landen – inclusief concurrenten – zullen ook beleidsbarrières en normen moeten invoeren. De wereld zette een waardevolle eerste stap toen in november 2021 193 landen een mondiale overeenkomst over de ethiek van kunstmatige intelligentie goedkeurden – de eerste ter wereld. Het omvat het beginsel dat landen menselijk toezicht op en controle over alle AI moeten garanderen .
Hoewel deze overeenkomst een belangrijke basis is, moeten de Verenigde Staten locaties zoeken om AI te bespreken met hun potentiële tegenstanders, vooral China, net zoals ze tijdens de Koude Oorlog manieren hebben gevonden om met de Sovjet-Unie over kernwapens en andere vormen van wapenbeheersing te praten. . Om te slagen zal Washington ook nauw moeten samenwerken met zijn bondgenoten en partners om ervoor te zorgen dat ze allemaal op één lijn staan.
Landen die het eens zijn over een reeks AI-normen moeten bereid zijn overtreders te bedreigen met zware kosten, waaronder multilaterale economische sancties, uitzetting uit internationale fora en juridische stappen om daders verantwoordelijk te houden voor de schade. Actoren die de AI- regels schenden, kunnen bijvoorbeeld worden aangeklaagd voor een Amerikaanse federale rechtbank, zoals vijf Chinese hackers in 2014 werden beschuldigd van het lanceren van cyberaanvallen op Amerikaanse bedrijven.
Staten die deze regels overtreden, kunnen te maken krijgen met mogelijke vergeldingsmaatregelen voor de aangerichte schade – inclusief, in extreme gevallen, militaire actie.
DE BEHOEFTE AAN VERANTWOORDELIJKE SNELHEID
In de wereld van de micro-elektronica praten experts vaak over de wet van Moore: het principe dat het aantal transistors op chips elke twee jaar verdubbelt, wat resulteert in apparaten die exponentieel beter in staat zijn. De wet helpt de snelle opkomst van zoveel technologische innovaties, waaronder smartphones en zoekmachines, te verklaren.
Binnen de nationale veiligheid heeft de vooruitgang op het gebied van AI een ander soort wet van Moore gecreëerd. Welk leger de komende jaren ook als eerste het gebruik van data en AI in zijn operaties zal organiseren, integreren en institutionaliseren, zal exponentiële vooruitgang boeken, wat het opmerkelijke voordelen zal opleveren ten opzichte van zijn vijanden. De eerste gebruiker van AI op grote schaal zal waarschijnlijk een snellere besluitvormingscyclus hebben en betere informatie waarop hij zijn beslissingen kan baseren.
Zijn netwerken zullen waarschijnlijk veerkrachtiger zijn wanneer ze worden aangevallen, waardoor het vermogen behouden blijft om het situationele bewustzijn te behouden, zijn strijdkrachten te verdedigen, doelen effectief aan te vallen en de integriteit van zijn bevel, controle en communicatie te beschermen. Het zal ook in staat zijn om zwermen onbemande systemen in de lucht, op het water en onder de zee te controleren om een tegenstander te verwarren en te overweldigen. De Verenigde Staten kunnen het zich niet veroorloven achterop te raken.
Maar ook het nationale veiligheidsapparaat kan het zich niet veroorloven roekeloos te zijn. Zonder de juiste waarborgen kunnen AI- modellen allerlei soorten onbedoelde schade aanrichten. Schurkenstaten zouden zelfs Amerikaanse troepen of ongewapende burgers kunnen doden in of nabij gevechtsgebieden. De Verenigde Staten staan daarom voor een raadsel. De inzet van het vertragen van AI is onaanvaardbaar hoog, maar dat geldt ook voor de inzet om vooruit te racen zonder de nodige voorzorgsmaatregelen.
Amerikaanse beleidsmakers lijken deze paradox te begrijpen. Congresleiders weten dat als ze AI met te harde hand zouden reguleren, ze de beste AI- vernieuwers ertoe zouden kunnen aanzetten de Verenigde Staten te verlaten om te gaan werken waar er minder beperkingen zijn, en de Verenigde Staten zouden dan achterop raken bij hun concurrenten. Maar zowel de Democratische als de Republikeinse beleidsmakers weten ook dat enige regulering en toezicht essentieel zijn om ervoor te zorgen dat de adoptie van AI veilig en verantwoord is.
Het Huis van Afgevaardigden en de Senaat houden zittingen om hun leden voor te lichten en plannen hoorzittingen om advies van deskundigen te krijgen. Deze pogingen om consensus tussen beide partijen te bereiken voordat wetgeving wordt aangenomen, moeten worden toegejuicht.
Toch is het begrijpen van het probleem slechts de eerste stap. Om dit op te lossen – om de behoefte aan snelheid in evenwicht te brengen met de behoefte aan veiligheid – zullen beleidsmakers betere benaderingen moeten implementeren om de adoptie te versnellen en de veiligheid te garanderen. Anders lopen Amerikanen het risico verstrikt te raken in een wereld van zowel toenemende AI- gevaren als afnemende Amerikaanse macht en invloed.