De strijd over wat AI mag doen woedt voort met twee grote namen die de noodzaak van regulering benadrukken
Taylor Swift en de nalatenschap van wijlen George Carlin staan beide in het middelpunt van de strijd waarin kunstmatige intelligentie werd gebruikt om hun gelijkenissen na te bootsen.
Eerder deze week werden pornografische deepfake- foto’s van Swift, gemaakt door AI, op grote schaal verspreid en werden ze 47 miljoen keer bekeken op X en op tal van andere sociale-mediasites. NBC News meldde dat het bekend is dat sites als X traag zijn in het verwijderen van seksueel expliciete deepfakes, maar in dit geval werden de afbeeldingen uiteindelijk verwijderd vanwege een massarapportagecampagne onder leiding van Swift’s fans.
In een verklaring zei X: “Onze teams verwijderen actief alle geïdentificeerde afbeeldingen en ondernemen passende maatregelen tegen de accounts die verantwoordelijk zijn voor het plaatsen ervan.”
Vertegenwoordiger Yvette Clarke zei op X: “Wat er met Taylor Swift is gebeurd, is niets nieuws. Vrouwen zijn al jaren het doelwit van deepfakes [zonder] hun toestemming. En [met] vooruitgang op het gebied van AI is het creëren van deepfakes eenvoudiger en goedkoper. Dit is een probleem aan beide kanten van het gangpad en zelfs Swifties zouden samen moeten kunnen komen om het op te lossen.”
What’s happened to Taylor Swift is nothing new. For yrs, women have been targets of deepfakes w/o their consent. And w/ advancements in AI, creating deepfakes is easier & cheaper.
This is an issue both sides of the aisle & even Swifties should be able to come together to solve.
— Yvette D. Clarke (@RepYvetteClarke) January 25, 2024
Nu sommige individuele staten zoals Californië, Texas en Virginia enkele wetten hebben aangenomen om deepfakes te criminaliseren, is er in het Congres een groeiende drang om een federale wet in te voeren. Vorig jaar stelde vertegenwoordiger Joseph Morelle de Preventing Deepfakes of Intimate Images Act voor, die het delen van deepfakes-pornografie zonder toestemming strafbaar zou stellen”, meldde The Guardian.
Morelle zei dat de deepfakes “onherroepelijke emotionele, financiële en reputatieschade kunnen veroorzaken – en helaas worden vrouwen onevenredig zwaar getroffen.”
Een andere wetgever, Tom Kean Jr., introduceert ook zijn eigen AI Labelling Act. Als het voorstel als wet wordt aangenomen, zou het vereisen dat alle door AI gegenereerde inhoud als AI wordt bestempeld.
<iframe width=”1250″ height=”703″ src=”https://www.youtube.com/embed/FRjNXeZdRH8″ title=”Taylor Swift becomes victim of AI misuse | BBC News” frameborder=”0″ allow=”accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share” allowfullscreen></iframe>
Dit is echter niet de eerste keer dat dit een beroemdheid overkomt en het zal zeker niet de laatste keer zijn, aangezien de ongereguleerde technologie zich snel blijft ontwikkelen. Elke persoon wiens afbeelding online toegankelijk is, kan het slachtoffer worden van degenen die pornografische deepfakes van hen willen maken. De 17-jarige ‘Doctor Strange and the Mulitverse of Madness’-ster Xochitl Gomez zei dat ze er niet in is geslaagd expliciete namaakproducten van zichzelf van het internet te verwijderen.
Zelfs influencers op sociale media en online persoonlijkheden circuleren deepfake-naakten. En hoewel deze mensen misschien niet de macht hebben om verandering teweeg te brengen, heeft de collectieve kracht van Swifties de kwestie aan het licht gebracht.
De doden tot leven wekken via AI
Zelfs mensen die niet meer leven zijn onderworpen aan AI-manipulatie. George Carlin, die in 2008 overleed, is nu ook verwikkeld in een juridische strijd tegen de makers van een YouTube-komediespecial ‘George Carlin: I’m Glad I’m Dead’, die op 9 januari werd uitgebracht. Carlin’s nalatenschap is aangeklaagd de makers voor het gebruik van kunstmatige intelligentie om de stem en de humor van de overleden komiek te kopiëren, aldus The Hollywood Reporter.
De rechtszaak die donderdag werd aangespannen, beweert dat de makers van de komediespecial Carlin’s hele oeuvre hebben gebruikt om een AI-chatbot te trainen zonder toestemming of compensatie. De rechtszaak roept ook problemen op met het gebruik van de stem en gelijkenis van de cabaretier voor de promotie van het werk.
Ook werd in de rechtszaak gevraagd om onmiddellijke intrekking van de special en de schadevergoeding. De nalatenschap van Carlin is een van de eersten die een rechtszaak heeft aangespannen namens een overleden beroemdheid wegens ongeoorloofd gebruik van hun werk en de gelijkenis met het vervaardigen van een nieuwe, door AI gegenereerde creatie. Het niet-consensuele gebruik van AI was een van de bepalende kwesties van de SAG-AFTRA-staking in 2023.
Carlins dochter, Kelly Carlin, zei na de release van de special op X dat het “een grens in de hedendaagse komediewereld overschreed die nu zeker gevolgen zal hebben voor dode artiesten en hun nalatenschappen.”
Thank you all for your support regarding this AI bot (?) that has arrogantly stepped over a line in the world of comedy today that will surely affect dead artists and their estates now. Hey @zeldawilliams @MelRivers @GarryShandling we should talk. They’re coming for you next.
— Kelly Carlin (@kelly_carlin) January 11, 2024
Momenteel zijn er in de VS geen federale wetten om te voorkomen dat de gelijkenis van een persoon door AI wordt gekopieerd.
Trollen hebben X overspoeld met grafische Taylor Swift AI-namaakproducten
/De term ‘Taylor Swift AI’ was populair in verschillende regio’s, waarbij één bericht meer dan 45 miljoen keer bekeken werd voordat het uiteindelijk werd verwijderd.
Seksueel expliciete, door AI gegenereerde afbeeldingen van Taylor Swift circuleerden de afgelopen dag op X (voorheen Twitter) in het nieuwste voorbeeld van de proliferatie van door AI gegenereerde neppornografie en de uitdaging om de verspreiding ervan te stoppen.
Een van de meest prominente voorbeelden op X trok meer dan 45 miljoen views, 24.000 reposts en honderdduizenden likes en bladwijzers voordat het account van de geverifieerde gebruiker die de afbeeldingen deelde, werd opgeschort wegens schending van het platformbeleid. De post stond ongeveer 17 uur live op het platform voordat deze werd verwijderd.
Maar toen gebruikers de virale post begonnen te bespreken, begonnen de afbeeldingen zich te verspreiden en werden ze opnieuw op andere accounts geplaatst. Velen blijven nog steeds actief en sindsdien is er een stortvloed aan nieuwe grafische vervalsingen verschenen. In sommige regio’s werd de term ‘Taylor Swift AI’ een trending topic, waardoor de beelden onder een breder publiek werden gepromoot.
Uit een rapport van 404 Media bleek dat de afbeeldingen mogelijk afkomstig zijn van een groep op Telegram, waar gebruikers expliciete, door AI gegenereerde afbeeldingen van vrouwen delen, vaak gemaakt met Microsoft Designer. Gebruikers in de groep maakten naar verluidt grapjes over hoe de beelden van Swift viraal gingen op X.
Het beleid van X met betrekking tot synthetische en gemanipuleerde media en niet-consensuele naaktheid verbiedt expliciet dat dit soort inhoud op het platform wordt gehost. Hoewel vertegenwoordigers van X, Swift en de NFL niet hebben gereageerd op onze verzoeken om commentaar, plaatste X bijna een dag na het begin van het incident de volgende openbare verklaring, maar zonder de Swift-beelden specifiek te noemen.
Posting Non-Consensual Nudity (NCN) images is strictly prohibited on X and we have a zero-tolerance policy towards such content. Our teams are actively removing all identified images and taking appropriate actions against the accounts responsible for posting them. We're closely…
— Safety (@Safety) January 26, 2024
De fanbase van Swift heeft X bekritiseerd omdat het toestaat dat veel van de berichten zo lang actief blijven als ze hebben gedaan. Als reactie hierop hebben fans gereageerd door hashtags die worden gebruikt om de afbeeldingen te verspreiden te overspoelen met berichten die in plaats daarvan echte clips promoten van Swift die optreedt om de expliciete vervalsingen te verbergen.
et incident spreekt over de zeer reële uitdaging van het stoppen van deepfake-porno en door AI gegenereerde beelden van echte mensen. Sommige AI-beeldgeneratoren hanteren beperkingen die voorkomen dat naakt-, pornografische en fotorealistische afbeeldingen van beroemdheden worden geproduceerd, maar veel andere bieden een dergelijke dienst niet expliciet aan. De verantwoordelijkheid om te voorkomen dat nepbeelden zich verspreiden, ligt vaak bij sociale platforms – iets dat onder de beste omstandigheden moeilijk kan zijn en zelfs nog moeilijker voor een bedrijf als X dat zijn moderatiemogelijkheden heeft uitgehold.
Het bedrijf wordt momenteel onderzocht door de EU met betrekking tot beweringen dat het wordt gebruikt om “ illegale inhoud en desinformatie te verspreiden ” en wordt naar verluidt ondervraagd over zijn crisisprotocollen nadat werd ontdekt dat desinformatie over de oorlog tussen Israël en Hamas op het platform werd gepromoot.
Update 25 januari, 13:06 ET: Bevindingen van 404 Media toegevoegd .
Update 26 januari, 05:31 ET: Algemene verklaring van Twitter toegevoegd over het plaatsen van naaktheid zonder wederzijds goedvinden.