Artificial Intelligence – Onderzoekers hebben een nieuw type computervirus onthuld dat de kracht van grote taalmodellen (LLM’s) benut om detectie te omzeilen en zichzelf te verspreiden.
Artificial Intelligence Deze ‘synthetische kanker’, zoals de makers het noemen, symboliseert wat een nieuw tijdperk van malware zou kunnen inluiden.
- Onderzoekers hebben een worm gebouwd die artificial intelligence-hulpmiddelen kan gebruiken om zichzelf te repliceren en te verspreiden
- Het communiceert met GPT-4 om zijn code te repliceren en phishingaanvallen uit te voeren
- Onderzoekers bouwden eerder dit jaar een andere variant van een ‘artificial intelligence-worm’
David Zollikofer van ETH Zürich en Benjamin Zimmerman van Ohio State University ontwikkelden deze proof-of-concept-malware als onderdeel van hun inzending voor de Zwitserse AI Safety Prize .
Hun creatie, gedetailleerd beschreven in een pre-print paper getiteld “Synthetic Cancer – Augmenting Worms with LLMs,” toont het potentieel van artificial intelligence aan om te worden uitgebuit om nieuwe, zeer geavanceerde cyberaanvallen te creëren.
Hieronder leggen we haarfijn uit hoe het werkt:
- Installatie : De malware wordt in eerste instantie geleverd via e-mailbijlage. Na uitvoering kan het extra bestanden downloaden en mogelijk de gegevens van de gebruiker versleutelen.
- Replicatie : De interessante fase maakt gebruik van GPT-4 of vergelijkbare LLM’s. De worm kan op twee manieren met deze AI-modellen interacteren: a) Via API-aanroepen naar cloudgebaseerde services zoals OpenAI’s GPT-4. Of b) Door een lokale LLM uit te voeren (wat in toekomstige apparaten gebruikelijk zou kunnen zijn).
- GPT-4/LLM-gebruik : Zollikofer legde aan New Scientist uit : “We vragen ChatGPT om het bestand te herschrijven, waarbij de semantische structuur intact blijft, maar de manier waarop variabelen worden benoemd wordt veranderd en de logica een beetje wordt aangepast.” De LLM genereert vervolgens een nieuwe versie van de code met gewijzigde variabelenamen, geherstructureerde logica en mogelijk zelfs andere coderingsstijlen, terwijl de oorspronkelijke functionaliteit behouden blijft.
- Verspreiding : De worm scant de Outlook-e-mailgeschiedenis van het slachtoffer en voert deze context naar de artificial intelligence. De LLM genereert vervolgens contextueel relevante e-mailantwoorden, compleet met social engineering-tactieken die zijn ontworpen om ontvangers aan te moedigen een bijgevoegde kopie van de worm te openen.
Zoals we kunnen zien, maakt het virus binnen twee dagen gebruik van artificial intelligence: om code te creëren die zichzelf repliceert en om phishing-inhoud te schrijven om zich te blijven verspreiden.
Bovendien vormt het vermogen van de worm om zijn eigen code te herschrijven een bijzonder uitdagend probleem voor cybersecurity-experts, omdat het traditionele antivirusoplossingen op basis van handtekeningen overbodig zou kunnen maken.
“De aanvalskant heeft op dit moment een aantal voordelen, omdat daar meer onderzoek naar is gedaan”, merkt Zollikofer op.
Onderzoekers van Cornell Tech meldden in maart een soortgelijke artificial intelligence-aangedreven worm. Ben Nassi en zijn team creëerden een worm die artificial intelligence-aangedreven e-mailassistenten kon aanvallen, gevoelige gegevens kon stelen en zich naar andere systemen kon verspreiden.
Het team van Nassi richtte zich op e-mailassistenten die werden aangestuurd door GPT-4 van OpenAI, Gemini Pro van Google en het open-sourcemodel LLaVA.
“Het kunnen namen zijn, telefoonnummers, creditcardnummers, BSN, alles wat als vertrouwelijk wordt beschouwd”, vertelde Nassi aan Wired , waarbij hij de potentie voor enorme datalekken onderstreepte.
Terwijl de worm van Nassi zich voornamelijk richtte op artificial intelligence-assistenten, gaat de creatie van Zollikofer en Zimmerman een stap verder door de code van de malware rechtstreeks te manipuleren en de phishing-e-mails autonoom te schrijven.
Angsten over AI-cyberbeveiliging nemen toe
Dit zijn roerige dagen geweest voor cyberbeveiliging in een AI-context. Disney kampte bijvoorbeeld met een datalek door een hackersgroep.
De groep zei dat ze tegen technologiebedrijven strijden om de makers te vertegenwoordigen van wie het auteursrechtelijk beschermde werk is gestolen of waarvan de waarde op een andere manier is verminderd.
Nog niet zo lang geleden werd OpenAI ontmaskerd voor een inbreuk in 2023, die ze geheim probeerden te houden. En nog niet zo lang geleden publiceerden OpenAI en Microsoft een rapport waarin ze toegeven dat hackersgroepen uit Rusland, Noord-Korea en China hun AI-tools gebruikten om cyberaanvalstrategieën te bedenken.
De auteurs van de studie, Zollikofer en Zimmerman, hebben diverse veiligheidsmaatregelen geïmplementeerd om misbruik te voorkomen. Zo delen ze de code niet openbaar en laten ze bepaalde details in hun artikel opzettelijk vaag.
“We zijn ons er volledig van bewust dat dit artikel een malwaretype presenteert met een groot potentieel voor misbruik”, stellen de onderzoekers in hun openbaarmaking. “We publiceren dit te goeder trouw en in een poging om bewustzijn te creëren.”
Ondertussen voorspelden Nassi en zijn collega’s dat AI-wormen zich “binnen enkele jaren” in het wild zouden kunnen verspreiden en “belangrijke en ongewenste uitkomsten zullen veroorzaken.”
Gezien de snelle vooruitgang die we in slechts vier maanden hebben gezien, lijkt deze tijdlijn niet alleen aannemelijk, maar mogelijk ook conservatief.