Een beveiligingslek bij OpenAI bracht aan het licht hoe lucratieve AI-bedrijven doelwitten zijn voor hackers.
OpenAI Bij de inbreuk, die begin vorig jaar plaatsvond en onlangs door de New York Times werd gemeld, wist een hacker toegang te krijgen tot de interne berichtensystemen van het bedrijf.
De hacker pikte details uit gesprekken met werknemers over de nieuwste technologieën van OpenAI. Dit is wat we weten:
- De inbreuk vond begin vorig jaar plaats en betrof een hacker die toegang kreeg tot de interne berichtensystemen van OpenAI.
- De hacker infiltreerde een online forum waar OpenAI-medewerkers openlijk de nieuwste AI-technologieën en -ontwikkelingen van het bedrijf bespraken.
- Door het lek werden interne discussies tussen onderzoekers en medewerkers blootgelegd, maar de code achter de AI-systemen van OpenAI en de klantgegevens werden niet in gevaar gebracht.
- De leidinggevenden van OpenAI vertelden het incident aan de werknemers tijdens een algemene vergadering op het kantoor van het bedrijf in San Francisco in april 2023 en informeerden de raad van bestuur.
- Het bedrijf heeft ervoor gekozen om het lek niet openbaar te maken, omdat het ervan uitging dat er geen informatie over klanten of partners was gestolen en dat de hacker een privépersoon was zonder bekende banden met een buitenlandse overheid.
- Leopold Aschenbrenner, voormalig technisch programmamanager van OpenAI, stuurde na de inbreuk een memo naar de raad van bestuur van het bedrijf. Hierin stelde hij dat OpenAI niet genoeg deed om te voorkomen dat buitenlandse overheden zijn geheimen zouden stelen.
- Aschenbrenner, die beweert dat hij is ontslagen omdat hij informatie buiten het bedrijf heeft gelekt, verklaarde in een recente podcast dat de beveiligingsmaatregelen van OpenAI onvoldoende bescherming bieden tegen diefstal van belangrijke geheimen door buitenlandse actoren.
- OpenAI betwist Aschenbrenners karakterisering van het incident en de bijbehorende veiligheidsmaatregelen. Volgens hem hebben zijn zorgen niet geleid tot zijn vertrek bij het bedrijf.
Wie is Leopold Aschenbrenner?
Leopold Aschenbrenner is een voormalig veiligheidsonderzoeker bij OpenAI van het superalignmentteam van het bedrijf. Het superalignmentteam, gericht op de veiligheid op lange termijn van geavanceerde kunstmatige algemene intelligentie (AGI), viel onlangs uit elkaar toen verschillende vooraanstaande onderzoekers OpenAI verlieten.
Een van hen was medeoprichter Ilya Sutskever, die onlangs een nieuw bedrijf oprichtte met de naam Safe Superintelligence Inc.
Aschenbrenner schreef vorig jaar een intern memo waarin hij zijn zorgen uitte over de beveiligingspraktijken van OpenAI, die hij omschreef als “ernstig ontoereikend.”
Hij verspreidde het memo onder gerenommeerde experts buiten het bedrijf. Weken later kreeg OpenAI te maken met het datalek, dus deelde hij een bijgewerkte versie met bestuursleden. Kort daarna werd hij ontslagen bij OpenAI.
“Wat ook een nuttige context zou kunnen zijn, zijn de vragen die ze me stelden toen ze me ontsloegen… de vragen gingen over mijn mening over de voortgang van AI, over AGI, het juiste beveiligingsniveau voor AGI, of de overheid betrokken zou moeten zijn bij AGI, of ik en het superalignmentteam loyaal waren aan het bedrijf, en wat ik deed tijdens de OpenAI-bestuursvergaderingen”, onthulde Aschenbrenner in een podcast.
“Een ander voorbeeld is toen ik veiligheidsproblemen aankaartte. Ze zeiden dat veiligheid onze hoogste prioriteit was,” aldus Aschenbrenner. “Als het tijd werd om serieuze middelen te investeren of compromissen te sluiten om basismaatregelen te nemen, kreeg veiligheid steevast geen prioriteit.”
OpenAI heeft Aschenbrenners karakterisering van het incident en de bijbehorende veiligheidsmaatregelen betwist. “We waarderen de zorgen die Leopold uitte toen hij bij OpenAI werkte, en dit heeft niet geleid tot zijn afscheid”, reageerde Liz Bourgeois, een woordvoerster van OpenAI.
“Hoewel we zijn toewijding aan het bouwen van veilige AGI delen, zijn we het oneens met veel van de beweringen die hij sindsdien over ons werk heeft gedaan.”
AI-bedrijven vormen een risico voor hackers
AI-bedrijven zijn ongetwijfeld een aantrekkelijk doelwit voor hackers vanwege de enorme hoeveelheid waardevolle gegevens waartoe zij de sleutels bezitten.
Deze gegevens vallen in drie hoofdcategorieën: hoogwaardige trainingsdatasets, gegevens over gebruikersinteractie en vertrouwelijke klantgegevens.
Denk maar eens aan de waarde van elk van deze categorieën.
Om te beginnen is trainingsdata de nieuwe olie. Hoewel het relatief eenvoudig is om deze op te halen uit openbare databases zoals LAION , moeten de data worden gecontroleerd, opgeschoond en aangevuld, wat zeer arbeidsintensief is.
AI-bedrijven hebben grote contracten met databedrijven die voornamelijk in Afrika, Azië en Zuid-Amerika actief zijn. De werknemers van deze bedrijven zijn verantwoordelijk voor het verwerken en verfijnen van enorme hoeveelheden data.
Vervolgens moeten we de gegevens in ogenschouw nemen die AI-bedrijven via hun tools verzamelen: de gebruikersgegevens.
Deze vormen een bijzonder risico als het gaat om bedrijfsgegevens die met AI worden gedeeld, met name code en andere vormen van intellectueel eigendom.
Uit een recent cybersecurityrapport bleek dat meer dan de helft van de interacties van mensen met chatbots zoals ChatGPT gevoelige, persoonlijk identificeerbare informatie (PII) bevat. Een ander rapport ontdekte dat 11% van de werknemers vertrouwelijke bedrijfsinformatie deelt met ChatGPT.
Bovendien moeten steeds meer bedrijven AI-tools integreren in hun bedrijfsvoering en moeten ze daardoor vaker toegang verlenen tot hun interne databases, waardoor het risico alleen maar groter wordt.
Naarmate de AI-wapenwedloop heviger wordt en landen als China de kloof met de VS snel dichten, zullen de risico’s die samenhangen met AI-technologie alleen maar toenemen.
Afgezien van deze geruchten van OpenAI hebben we nog geen bewijs gezien van grootschalige inbreuken, maar dat is waarschijnlijk slechts een kwestie van tijd.