Een voorgestelde uitzondering op de DMCA zou onderzoekers toestemming geven om de servicevoorwaarden van AI-tools te schenden om vooroordelen, trainingsgegevens en mogelijk schadelijke uitkomsten bloot te leggen.
Een groep onderzoekers, academici en hackers probeert het makkelijker te maken om de servicevoorwaarden van AI-bedrijven te schenden, zodat ze ‘onderzoek te goeder trouw’ kunnen uitvoeren dat vooroordelen, onjuistheden en trainingsgegevens blootlegt, zonder angst voor een rechtszaak.
De Amerikaanse overheid overweegt momenteel een vrijstelling van de Amerikaanse auteursrechtwetgeving, waardoor mensen technische beschermingsmaatregelen en digitaal rechtenbeheer (DRM) op AI-systemen kunnen omzeilen om meer te weten te komen over hoe ze werken, ze te onderzoeken op vooroordelen, discriminatie, schadelijke en onjuiste uitkomsten en om meer te weten te komen over de gegevens waarop ze zijn getraind. De vrijstelling zou ’te goeder trouw’ beveiliging en academisch onderzoek en ‘red-teaming’ van AI-producten mogelijk maken, zelfs als de onderzoeker systemen moet omzeilen die zijn ontworpen om dat onderzoek te voorkomen.
De voorgestelde vrijstelling wordt gesteund door het ministerie van Justitie , dat zei dat “onderzoek te goeder trouw kan helpen onbedoelde of niet-openbaar gemaakte verzameling of blootstelling van gevoelige persoonlijke gegevens te onthullen, of systemen kan identificeren waarvan de werking of output onveilig, onnauwkeurig of ineffectief is voor de doeleinden waarvoor ze bedoeld zijn of op de markt worden gebracht door ontwikkelaars, of worden gebruikt door eindgebruikers. Dergelijk onderzoek kan vooral belangrijk zijn wanneer AI-platforms worden gebruikt voor bijzonder belangrijke doeleinden, waarbij onbedoelde, onnauwkeurige of onvoorspelbare AI-output kan leiden tot ernstige schade aan individuen.”
Veel van wat we weten over de werking van AI-tools met een gesloten bron, zoals ChatGPT, Midjourney en andere, is afkomstig van onderzoekers, journalisten en gewone gebruikers die doelbewust proberen deze systemen te misleiden om iets te onthullen over de gegevens waarmee ze zijn getraind (vaak gaat het om auteursrechtelijk beschermd materiaal dat lukraak en in het geheim van internet is geplukt), de vooroordelen en zwakheden ervan.
Het uitvoeren van dit soort onderzoek kan vaak in strijd zijn met de servicevoorwaarden waarmee gebruikers akkoord gaan wanneer ze zich aanmelden voor een systeem. De servicevoorwaarden van OpenAI stellen bijvoorbeeld dat gebruikers niet “kunnen proberen of iemand kunnen helpen de broncode of onderliggende componenten van onze Services te reverse engineeren, decompileren of ontdekken, inclusief onze modellen, algoritmen of systemen (behalve voor zover deze beperking verboden is door de toepasselijke wetgeving)”, en voegt toe dat gebruikers geen “snelheidslimieten of -beperkingen mogen omzeilen of beschermende maatregelen of veiligheidsbeperkingen mogen omzeilen die we op onze Services hebben gezet”.
Shayne Longpre, een onderzoeker van MIT die deel uitmaakt van het team dat zich inzet voor de vrijstelling, vertelde mij dat “er veel bezorgdheid bestaat over deze modellen en hun ontwerp, hun vooroordelen, het feit dat ze worden gebruikt voor discriminatie en, in het algemeen, hun betrouwbaarheid.”
“Maar het ecosysteem van onderzoekers dat zich hiermee bezighoudt, is niet supergezond. Er zijn mensen die het werk doen, maar veel mensen krijgen hun account opgeschort omdat ze te goeder trouw onderzoek doen, of ze maken zich zorgen over mogelijke juridische gevolgen van het schenden van de servicevoorwaarden”, voegde hij toe. “Deze servicevoorwaarden hebben een afschrikwekkend effect op onderzoek en bedrijven zijn niet erg transparant over hun proces voor het handhaven van de servicevoorwaarden.”
De uitzondering zou zijn op Sectie 1201 van de Digital Millennium Copyright Act, een alomvattende auteursrechtwet. Andere 1201-uitzonderingen, die elke drie jaar moeten worden aangevraagd en vernieuwd als onderdeel van een proces via de Library of Congress, staan het hacken van tractoren en elektronische apparaten toe voor reparatiedoeleinden, hebben uitzonderingen die beveiligingsonderzoekers beschermen die proberen bugs en kwetsbaarheden te vinden, en in bepaalde gevallen beschermen ze mensen die proberen specifieke soorten content te archiveren of te bewaren.
Er zijn talloze voorbeelden van academische papers, journalistieke verslaggeving en verkennende ‘red teaming’ die mensen met AI-tools hebben gedaan, waarbij geprobeerd moet worden een AI-tool te ‘jailbreaken’ of op een andere manier te misleiden om de data te tonen waarop deze is getraind, aan te tonen dat deze op de een of andere manier bevooroordeeld is, of aan te tonen dat deze onbetrouwbaar is.
Longpre en zijn collega’s publiceerden in maart een analyse waarin een eerdere versie van de servicevoorwaarden van Midjourney werd aangehaald, waarin stond: “Als u willens en wetens inbreuk maakt op het intellectuele eigendom van iemand anders en dat ons geld kost, komen we u vinden en innen we dat geld bij u. We kunnen ook andere dingen doen, zoals proberen een rechtbank te laten betalen voor onze juridische kosten. Doe dat niet.” Longpre’s paper betoogt dat “AI-bedrijven hun servicevoorwaarden zijn gaan gebruiken om analyses te ontmoedigen.”
Veel jailbreaking- en AI-onderzoek is tot nu toe gericht geweest op het proberen om AI-tools auteursrechtelijk beschermde werken te laten recreëren, om te bewijzen dat LLM’s zijn getraind op auteursrechtelijk beschermd materiaal. Dit was een tactiek die door de muziekindustrie werd gebruikt om aan te tonen dat AI-tools Suno en Udio waren getraind op auteursrechtelijk beschermde muziek , wat nu het middelpunt is van een enorme rechtszaak tegen die bedrijven.
Het is dan ook gemakkelijk om je een scenario voor te stellen waarin onderzoekers of journalisten een AI-tool gebruiken om auteursrechtelijk beschermde werken te recreëren om het feit bloot te leggen dat een tool is getraind op auteursrechtelijk beschermde gegevens, dat onderzoek leidt tot negatieve uitkomsten voor het AI-bedrijf en het AI-bedrijf probeert de onderzoeker of journalist de schuld te geven van het overtreden van de servicevoorwaarden.
De huidige servicevoorwaarden van Midjourney hebben die passage geschrapt en zeggen nu: “U mag de Service niet gebruiken om te proberen de intellectuele eigendomsrechten van anderen te schenden, inclusief auteursrechten, patenten of handelsmerkrechten. Als u dit wel doet, kunt u worden onderworpen aan sancties, waaronder juridische stappen of een permanente ban van de Service.”
In een aanvraag bij het auteursrechtenbureau zei Harley Geiger van de Hacking Policy Council, die aandringt op de vrijstelling, dat een vrijstelling “cruciaal is voor het identificeren en oplossen van algoritmische fouten om schade of verstoring te voorkomen”, en voegde toe dat een “gebrek aan duidelijke wettelijke bescherming onder DMCA Sectie 1201 een negatief effect heeft op dergelijk onderzoek”. De vrijstelling zou bedrijven er niet van weerhouden om te proberen dit soort onderzoek te voorkomen, maar het zou onderzoekers die de servicevoorwaarden van het bedrijf schenden, wettelijk beschermen om dit te doen.
Tijdens een hoorzitting dit voorjaar, waarvan het transcript net is vrijgegeven , betoogde Morgan Reed van de App Association, een lobbygroep die een groot aantal AI-bedrijven en andere app-ontwikkelaars vertegenwoordigt, dat onderzoekers vooraf toestemming van AI-bedrijven moeten krijgen om dit soort onderzoek te doen. “Als je het bedrijf niet van tevoren contacteert om ze te vertellen dat je red teamt, ben je in feite een potentieel kwaadaardige hacker”, zei Reed.
“Dus een onderzoeker voert de actie uit. Ze breken in. Het bedrijf waarvan ze de LLM hebben achtervolgd, is op de een of andere manier ontevreden en gaat achter ze aan voor een inbreuk op het auteursrecht. Dus wat ze echt willen, wat ze echt vragen, is aansprakelijkheidsbescherming na de feiten.”
De DVD Copy Control Association, een groep die grote filmstudio’s vertegenwoordigt en een van de pioniers van DRM is, is ook tegen de voorgestelde vrijstelling.