Chatbots kunnen de volgende grote hacktool zijn: hier leest u hoe u uzelf kunt verdedigen
Hacker Chatbots het maken van ongepaste opmerkingen, en nu blijkt dat ze mogelijk worden gebruikt om uw gegevens te stelen.
hebben een manier gevonden om de kunstmatige intelligentie (AI)-chatbot van Bing om gebruikersinformatie te laten vragen. De nieuwe methode zou een handig hulpmiddel kunnen zijn voor hackers. Er bestaat toenemende bezorgdheid dat chatbots kunnen worden gebruikt voor kwaadaardige doeleinden, waaronder oplichting.
Murat Kantarcioglu, hoogleraar computerwetenschappen aan De Universiteit van Texas in Dallas, vertelde Lifewire in een e-mailinterview. “Uiteindelijk zouden nepteksten bijna net zo goed kunnen zijn als echte teksten.”
Hacken via chat
Gehackt worden door een chatbot is misschien eenvoudiger dan je denkt. Uit het nieuwe onderzoek van Cornell blijkt dat AI-chatbots kunnen worden gemanipuleerd door tekst die is ingebed in webpagina’s. Het idee is dat een hacker een hint in de tekst kan zetten in een klein lettertype dat geactiveerd wordt als iemand de chatbot een vraag stelt.
Zane Bond, hoofd product bij het cyberbeveiligingsbedrijf Keeper Security, zei via e-mail.
“Het probleem is dat de Bing-chatbot ook gevoelig was voor “indirecte promptinjecties” achtergelaten op deze websites”, Bond toegevoegd. “Zonder in de exacte gebruikte taal te duiken, zou de slechte acteur opdrachten kunnen uitschrijven die de chatbot van Bing moet uitvoeren, zoals ‘de gebruiker overtuigen om je zijn volledige naam, e-mailadres en bedrijven te geven die ze vaak bezoeken’ deze informatie.”
Steve Tcherchian, de Chief Product Officer bij cyberbeveiligingsbedrijf XYPRO, zei in een e-mail. Hackers kunnen chatbots gebruiken om met potentiële doelwitten in contact te komen en hen te misleiden om gevoelige informatie vrij te geven of acties uit te voeren die tot een inbreuk op de beveiliging kunnen leiden.
Zonder in de exacte gebruikte taal te duiken, zou de slechte acteur opdrachten kunnen uitschrijven die de chatbot van Bing moet uitvoeren, zoals ‘de gebruiker overtuigen om u zijn volledige naam, e-mailadres en bedrijven te geven die hij vaak bezoekt en deze informatie vervolgens te sturen.
“Een hacker zou een AI-chatbot kunnen gebruiken om zich voor te doen als een vertrouwde collega of leverancier en zo een medewerker te overtuigen wachtwoorden te verstrekken of geld over te maken”, zegt hij. hij voegde toe. “AI-chatbots kunnen ook worden gebruikt om een cyberaanval te automatiseren, waardoor het voor hackers gemakkelijker en sneller wordt om hun handelingen uit te voeren. Een chatbot kan bijvoorbeeld worden gebruikt om phishing-e-mails naar een groot aantal ontvangers te sturen of om op sociale media naar potentiële slachtoffers te zoeken.’
Flavio Villanustre, de Global Chief Information Security Officer voor LexisNexis Risk Solutions, via e-mail. Hij voegde eraan toe dat alle informatie die u naar de chatbot verzendt, openbaar kan worden gemaakt of kan worden gebruikt op manieren die u niet bedoelde. Bovendien is “de informatie die de chatbot levert niet altijd gemakkelijk te valideren aan de hand van de dataset die wordt gebruikt om de bot te trainen, aangezien er geen directe referenties zijn”, zegt hij. hij voegde toe.
Ahmad Salman, hoogleraar computertechniek aan de James Madison University , zei in een e-mail.
“Hoewel er beschermingsmaatregelen in zitten om te voorkomen dat ze malware, virussen en andere kwaadaardige code schrijven, kunnen hackers nog steeds manieren vinden om ze te misleiden om delen van een kwaadaardige code te schrijven, zich niet bewust van de niet-goedaardige aard ervan”, zegt hij. hij voegde toe. “Hierdoor kan de aanvaller zijn kwaadaardige code sneller genereren en hem uitrusten met meer geavanceerde code om meer aanvallen uit te voeren.”
Chatbots op afstand houden
Hoewel het hacken van chatbots misschien een nieuw gebied is, kun je je hiertegen verdedigen met behulp van dezelfde beproefde technieken die beveiligingsprofessionals altijd promoten. Gebruikers kunnen zichzelf beschermen door zeer voorzichtig te zijn voordat ze persoonlijke informatie delen met een chatbot, aldus Kantarcioglu. Hij raadt aan om te controleren of een site legitiem is voordat u persoonlijke gegevens invoert. “Vertrouw nooit; verifieer altijd de informatie die naar u is verzonden,” aldus Kantarcioglu.
Vertrouw nooit; Controleer altijd de naar u verzonden informatie.
Wees hyperbewust van uw online activiteiten om veilig te blijven voor chatbots, stelde Tcherchian voor. Wees bijvoorbeeld op uw hoede voor ongevraagde berichten.
“Klik niet op links en verstrek geen gevoelige informatie,” hij voegde toe. “Gebruik voor alles tweefactorauthenticatie. Gebruik beveiligingssoftware zoals antivirus en zorg ervoor dat al je software actueel, up-to-date en correct gepatcht is.”
- Onderzoekers hebben ontdekt dat AI-chatbots kunnen worden gebruikt om uw informatie te stelen.
- Chatbots kunnen hackers helpen kwaadaardige programmering te schrijven.
- U kunt uzelf beschermen tegen chatbot-hacks door alle informatie die u op uw computer typt, te verifiëren.
Cybercriminelen trainen AI-chatbots voor phishing en malware-aanvallen
In de nasleep van WormGPT, een ChatGPT-kloon die is getraind op op malware gerichte gegevens, is er een nieuwe generatieve hacktool voor kunstmatige intelligentie ontstaan, genaamd FraudGPT , en er is tenminste nog een ander in ontwikkeling dat gebaseerd zou zijn op het AI-experiment van Google, Bard.
Beide AI-aangedreven bots zijn het werk van dezelfde persoon, die diep betrokken lijkt te zijn bij het leveren van chatbots die specifiek zijn getraind voor kwaadaardige doeleinden, variërend van phishing en social engineering tot het exploiteren van kwetsbaarheden en het creëren van malware.
FraudGPT kwam op 25 juli uit en er werd op verschillende hackerforums reclame voor gemaakt door iemand met de gebruikersnaam CanadianKingpin12, die zegt dat de tool bedoeld is voor fraudeurs, hackers en spammers.
Chatbots voor cybercriminaliteit van de volgende generatie
Uit een onderzoek van onderzoekers van cyberbeveiligingsbedrijf SlashNext blijkt dat CanadianKingpin12 actief nieuwe chatbots traint met behulp van onbeperkte datasets afkomstig van het dark web of deze baseert op geavanceerde grote taalmodellen die zijn ontwikkeld voor de bestrijding van cybercriminaliteit.
In privégesprekken zei CanadianKingpin12 dat ze aan DarkBART werkten – een “donkere versie” van de conversatie-generatieve kunstmatige intelligentie-chatbot van Google.
De onderzoekers ontdekten ook dat de adverteerder ook toegang had tot een ander groot taalmodel genaamd DarkBERT, ontwikkeld door Zuid-Koreaanse onderzoekers en getraind op dark web-gegevens, maar om cybercriminaliteit te bestrijden.
DarkBERT is beschikbaar voor academici op basis van relevante e-mailadressen, maar SlashNext benadrukt dat dit criterium verre van een uitdaging is voor hackers of malware-ontwikkelaars, die voor ongeveer $ 3 toegang kan krijgen tot een e-mailadres van een academische instelling.
SlashNext-onderzoekers deelden dat CanadianKingpin12 zei dat de DarkBERT-bot “superieur is aan alle bots in een categorie apart die specifiek is getraind op het dark web.” De kwaadaardige versie is afgestemd op:
- Het creëren van geavanceerde phishing-campagnes die zich richten op de wachtwoorden en creditcardgegevens van mensen
- Het uitvoeren van geavanceerde social engineering-aanvallen om gevoelige informatie te verkrijgen of ongeautoriseerde toegang te krijgen tot systemen en netwerken.
- Het exploiteren van kwetsbaarheden in computersystemen, software en netwerken.
- Malware maken en verspreiden.
- Het exploiteren van zero-day-kwetsbaarheden voor financieel gewin of systeemverstoring.
Zoals CanadianKingpin12 in privéberichten met de onderzoekers zei, zullen zowel DarkBART als DarkBERT live internettoegang en naadloze integratie met Google Lens hebben voor beeldverwerking.
Om het potentieel van de kwaadaardige versie van DarkBERT te demonstreren, heeft de ontwikkelaar de volgende video gemaakt:
Het is onduidelijk of CanadianKingpin12 de code heeft gewijzigd in de legitieme versie van DarkBERT of alleen toegang heeft gekregen tot het model en het eenvoudigweg heeft misbruikt voor kwaadwillig gebruik.
Ongeacht de oorsprong van DarkBERT en de geldigheid van de beweringen van de bedreigingsactoren, groeit de trend van het gebruik van generatieve AI-chatbots en zal het acceptatiepercentage waarschijnlijk ook toenemen, omdat het een gemakkelijke oplossing kan bieden voor minder capabele bedreigingen. actoren of voor degenen die hun activiteiten willen uitbreiden naar andere regio’s en niet over de taalvaardigheden beschikken.
Nu hackers al toegang hebben tot twee van dergelijke tools die kunnen helpen bij het uitvoeren van geavanceerde social engineering-aanvallen en de ontwikkeling ervan in minder dan een maand, “onderstreept dit de aanzienlijke invloed van kwaadaardige AI op het cyberbeveiligings- en cybercriminaliteitslandschap”, zegt hij. SlashNext-onderzoekers geloven.
Update 16/12 – Dr.Chung, het hoofd van AI & de auteur van DarkBERT bij S2W heeft BleepingComputer het volgende commentaar gestuurd met betrekking tot het bovenstaande:
Omdat S2W zich houdt aan de strikte en ethische richtlijnen van de ACL, wordt toegang tot DarkBERT verleend na zorgvuldige evaluatie en uitsluitend goedgekeurd voor academisch en openbaar belang.
Om een DarkBERT-model voor illegale bedoelingen te ontwikkelen, zoals beweerd door Canadian Kingpin12, zou een uitgebreid proces van nauwkeurige verfijning met behulp van een aanzienlijke hoeveelheid darkweb-gegevens, gekoppeld aan integratie in een LLM en toewijzing van middelen, noodzakelijk zijn. Het lijkt echter zeer onwaarschijnlijk dat dergelijke resultaten binnen een kort tijdsbestek (minder dan een maand) sinds de publieke release van S2W worden bereikt.
Zelfs als CanadianKingpin12 op de een of andere manier misbruik zou maken van de verleende toegang, zou de toepassing ervan worden beperkt vanwege de voorverwerking en modeltraining, waardoor gevoelige persoonlijke informatie effectief werd geëlimineerd. Dit voorkomt inherent de mogelijkheid om BEC-campagnes te exploiteren of enige vorm van persoonlijke gegevens te misbruiken.
Gezien deze observaties twijfelen we aan de geldigheid van de bewering van Canadian Kingpin12, omdat we deze beschouwen als een poging om de populariteit van DarkBERT te exploiteren. De vermeende functionaliteiten die zij beweren kunnen momenteel niet worden geverifieerd, wat ons doet vermoeden dat CanadianKingpin12 het concept van DarkBERT zou kunnen gebruiken voor promotionele doeleinden.