OpenAI “Gezien het gebruik van AI-systemen bij het aanvallen van burgers in Gaza, is dit een opmerkelijk moment om de beslissing te nemen om de woorden te verwijderen”, waarschuwde een beleidsanalist.
OPENAI HEEFT DEZE WEEK stilletjes taal verwijderd die uitdrukkelijk het gebruik van zijn technologie voor militaire doeleinden verbiedt uit zijn gebruiksbeleid, dat probeert te dicteren hoe krachtige en immens populaire tools zoals ChatGPT kunnen worden gebruikt.
Tot 10 januari de pagina ‘Gebruiksbeleid’ van OpenAIOpent in een nieuw tabblad omvatte een verbod op ‘activiteiten die een hoog risico op fysieke schade met zich meebrengen, waaronder’ specifiek ‘wapenontwikkeling’ en ‘militair en oorlogvoering’. Dat duidelijk geformuleerde verbod op militaire toepassingen zou schijnbaar elk officieel en uiterst lucratief gebruik door het Ministerie van Defensie of enig ander staatsleger uitsluiten.
Het nieuwe beleidOpent in een nieuw tabbladhanteert het verbod om “onze dienst niet te gebruiken om uzelf of anderen schade te berokkenen” en geeft “wapens ontwikkelen of gebruiken” als voorbeeld, maar het algemene verbod op het gebruik van “militaire en oorlogsvoering” is verdwenen.
De onaangekondigde redactie maakt deel uit van een grote herschrijving van de beleidspagina, die volgens het bedrijf bedoeld was om het document “duidelijker” en “leesbaarder” te maken, en die vele andere substantiële veranderingen in taal en opmaak omvat.
What's interesting about this is that weapons development also didn't feature as a threat area in the OpenAI preparedness framework, which I think it should. https://t.co/rlJKiPhBGQ https://t.co/5E21P7Rqwm
— Dr Ian J. Stewart (@ian_j_stewart) January 12, 2024
OpenAI-woordvoerder Niko Felix vertelde The Intercept dat het bedrijf “een reeks universele principes wilde creëren die zowel gemakkelijk te onthouden als toe te passen zijn, vooral omdat onze tools nu wereldwijd worden gebruikt door gewone gebruikers die nu ook GPT’s kunnen bouwen.”
“Een principe als ‘anderen geen schade berokkenen’ is breed, maar toch gemakkelijk te begrijpen en relevant in tal van contexten,” voegde Felix eraan toe. “Bovendien hebben we specifiek wapens en verwondingen aan anderen genoemd als duidelijke voorbeelden.”
Naarmate AI vordert, neemt ook de bewapening ervan toe. Deskundigen waarschuwen dat AI-toepassingen, waaronder dodelijke autonome wapensystemen, gewoonlijk ‘killer-robots’ genoemd, een potentieel existentiële bedreiging voor de mensheid kunnen vormen, wat de noodzaak van wapenbeheersingsmaatregelen onderstreept om het tempo van de bewapening te vertragen.
Dat is het doel van de kernwapenwetgeving die vorig jaar in het Amerikaanse Congres werd geïntroduceerd . De tweeledige Block Nuclear Launch by Autonomous Artificial Intelligence Act – geïntroduceerd door senator Ed Markey (D-Mass.) en vertegenwoordigers. Ted Lieu (D-Calif.), Don Beyer (D-Va.) en Ken Buck (R- Colo.) – beweert dat “elke beslissing om een kernwapen te lanceren niet door AI mag worden genomen”.
“We wilden een reeks universele principes creëren die zowel gemakkelijk te onthouden als toe te passen zijn, vooral omdat onze tools nu wereldwijd worden gebruikt door gewone gebruikers die nu ook GPT’s kunnen bouwen”, zei OpenAI-woordvoerder Niko Felix in een e-mail aan The Intercept. “Een principe als ‘Doe anderen geen kwaad’ is breed, maar toch gemakkelijk te begrijpen en relevant in tal van contexten. Daarnaast hebben we specifiek wapens en verwondingen aan anderen genoemd als duidelijke voorbeelden.”
Felix weigerde te zeggen of het vagere verbod op ‘schade’ al het militaire gebruik omvatte. , of [deelnemen] aan ongeoorloofde activiteiten die de veiligheid van een dienst of systeem schenden’, is niet toegestaan.”
“OpenAI is zich terdege bewust van de risico’s en schade die kunnen ontstaan als gevolg van het gebruik van hun technologie en diensten in militaire toepassingen”, zegt Heidy Khlaaf, technisch directeur bij het cyberbeveiligingsbedrijf Trail of Bits en een expert op het gebied van machinaal leren en de veiligheid van autonome systemen. , daarbij verwijzend naar een artikel uit 2022Opent in een nieuw tabbladze was co-auteur van OpenAI-onderzoekers die specifiek het risico van militair gebruik signaleerden.
Khlaaf voegde eraan toe dat het nieuwe beleid de nadruk lijkt te leggen op legaliteit boven veiligheid. “Er is een duidelijk verschil tussen de twee beleidsmaatregelen, aangezien het eerste duidelijk schetst dat de ontwikkeling van wapens, het leger en de oorlogsvoering niet zijn toegestaan, terwijl het laatste de nadruk legt op flexibiliteit en naleving van de wet”, zei ze. “Het ontwikkelen van wapens en het uitvoeren van activiteiten die verband houden met militaire en oorlogsvoering is in verschillende mate legaal.
De potentiële implicaties voor de veiligheid van AI zijn aanzienlijk. Gezien de bekende gevallen van vooroordelen en hallucinaties die aanwezig zijn in Large Language Models (LLM’s), en hun algehele gebrek aan nauwkeurigheid, kan het gebruik ervan binnen militaire oorlogsvoering alleen maar leiden tot onnauwkeurige en bevooroordeelde operaties die waarschijnlijk de schade en het aantal burgerslachtoffers zullen verergeren.”
De reële gevolgen van het beleid zijn onduidelijk. Vorig jaar meldde The Intercept dat OpenAI niet bereid was te zeggen of het zijn eigen duidelijke ‘militaire en oorlogsvoering’-verbod zou handhaven, ondanks de toenemende belangstelling van het Pentagon en de Amerikaanse inlichtingengemeenschap.
“Gezien het gebruik van AI-systemen bij het aanvallen van burgers in Gaza, is het een opmerkelijk moment om de beslissing te nemen om de woorden ‘militair en oorlogsvoering’ te verwijderen uit het beleid voor toegestaan gebruik van OpenAI”, zegt Sarah Myers West, directeur van AI Now. Instituut en voormalig AI-beleidsanalist bij de Federal Trade Commission. “De taal die in het beleid staat blijft vaag en roept vragen op over hoe OpenAI de handhaving wil benaderen.”
Hoewel niets dat OpenAI vandaag de dag biedt op plausibele wijze kan worden gebruikt om iemand direct te doden, militair of anderszins (ChatGPT kan geen drone manoeuvreren of een raket afvuren), houdt elk leger zich bezig met het doden, of op zijn minst met het behouden van de capaciteit om te doden.
Er zijn een aantal aan moord gerelateerde taken die een LLM zoals ChatGPT zou kunnen uitbreiden, zoals het schrijven van code of het verwerken van inkoopOpent in een nieuw tabbladbestellingen. Een overzicht van aangepaste ChatGPT-aangedreven bots aangeboden door OpenAI suggereert dat Amerikaans militair personeel dat al is Opent in een nieuw tabblad gebruik makend vanOpent in een nieuw tabbladde technologie om het papierwerk te versnellen.
De National Geospatial-Intelligence Agency, die rechtstreeks de Amerikaanse gevechtsinspanningen ondersteunt, heeft openlijk gespeculeerd over het gebruik van ChatGPT om zijn menselijke analisten te helpenOpent in een nieuw tabblad. Zelfs als OpenAI-tools door delen van een militaire macht zouden worden ingezet voor doeleinden die niet direct gewelddadig zijn, zouden ze nog steeds een instelling helpen waarvan het hoofddoel dodelijkheid is.
Deskundigen die de beleidswijzigingen op verzoek van The Intercept hebben beoordeeld, zeggen dat OpenAI stilletjes zijn standpunt tegen het zakendoen met legers lijkt te verzwakken. “Ik kan me voorstellen dat de verschuiving van ‘militair en oorlogsvoering’ naar ‘wapens’ ruimte openlaat voor OpenAI om operationele infrastructuren te ondersteunen, zolang de toepassing niet direct betrekking heeft op de ontwikkeling van wapens in eng gedefinieerde zin”, zegt Lucy Suchman, emeritus hoogleraar. van antropologie van wetenschap en technologie aan de Lancaster University.
“Natuurlijk denk ik dat het idee dat je kunt bijdragen aan oorlogsplatforms terwijl je beweert niet betrokken te zijn bij de ontwikkeling of het gebruik van wapens oneerlijk zou zijn, door het wapen te verwijderen uit het sociotechnische systeem – inclusief de commando- en controle-infrastructuur – waarvan het deel uitmaakt. .” Suchman, een wetenschapper op het gebied van kunstmatige intelligentie sinds de jaren zeventig en lid van het International Committee for Robot Arms Control, voegde hieraan toe: “Het lijkt aannemelijk dat het nieuwe beleidsdocument de kwestie van militaire contracten en oorlogsvoering ontwijkt door zich specifiek op wapens te concentreren.”
Suchman en Myers West wezen allebei op de nauwe samenwerking van OpenAI met Microsoft, een grote defensie-aannemer, die tot nu toe 13 miljard dollar in de LLM-maker heeft geïnvesteerd en de softwaretools van het bedrijf doorverkoopt.
De veranderingen komen omdat legers over de hele wereld graag machinale leertechnieken willen toepassen om voordeel te behalen; het Pentagon onderzoekt nog steeds voorzichtig hoe het ChatGPT of andere grote-taalmodellen zou kunnen gebruiken, een soort softwaretool die snel en behendig geavanceerde tekstuitvoer kan genereren. LLM’s zijn getraind in gigantische hoeveelheden boeken, artikelen en andere webgegevens om menselijke reacties op gebruikersprompts te benaderen.
Hoewel de resultaten van een LLM als ChatGPT vaak buitengewoon overtuigend zijn, zijn ze geoptimaliseerd voor coherentie in plaats van een stevige greep op de werkelijkheid en lijden ze vaak aan zogenaamde hallucinaties die nauwkeurigheid en feitelijkheid tot een probleem maken. Toch maakt het vermogen van LLM’s om snel tekst op te nemen en snel analyses uit te voeren – of op zijn minst het simulacrum van analyse – hen een natuurlijke match voor het met data beladen ministerie van Defensie.
Terwijl sommigen binnen het Amerikaanse militaire leiderschap hun bezorgdheid hebben geuitOpent in een nieuw tabbladOver de neiging van LLM’s om flagrante feitelijke fouten of andere verdraaiingen in te voegen, evenals de veiligheidsrisico’s die kunnen voortvloeien uit het gebruik van ChatGPT om geheime of anderszins gevoelige gegevens te analyseren, blijft het Pentagon over het algemeen gretig om hulpmiddelen voor kunstmatige intelligentie te adopteren.
In een toespraak in november zei vice-minister van Defensie Kathleen HicksOpent in een nieuw tabbladdat AI “een belangrijk onderdeel is van de alomvattende, op oorlogsjagers gerichte benadering van innovatie die minister [Lloyd] Austin en ik vanaf dag 1 hebben gevolgd”, hoewel ze waarschuwde dat de meeste huidige aanbiedingen “technisch nog niet volwassen genoeg zijn om te voldoen met onze ethische AI-principes.”
Vorig jaar vertelde Kimberly Sablon, hoofddirecteur van het Pentagon voor betrouwbare AI en autonomieOpent in een nieuw tabbladeen conferentie in Hawaï dat “er veel goeds te doen is in termen van hoe we grote taalmodellen zoals [ChatGPT] kunnen gebruiken om kritieke functies op de afdeling te ontwrichten.”