Generatieve AI wordt meer en meer gebruikt in de praktijk, voor uiteenlopende taken, waaronder ook het ontwikkelen van computergames. Uit recent onderzoek onder meer dan drieduizend gamedevelopers blijkt dat de helft van het werk bij gamestudio’s al wordt gedaan door genAI-tools. Een meerderheid van de developers maakt zich zorgen over de ethische kant van dat techgebruik.
Een grote groep developers, 42% van de meer dan drieduizend respondenten, geeft in het 2024 State of the Industry-rapport aan “zeer bezorgd” te zijn over de ethiek van gebruik van genAI-tools voor game-ontwikkeling. Nog eens 42% stelt daar “enigszins bezorgd” over te zijn. Een kleine minderheid van 12% verklaart zich totaal geen zorgen te maken over de ethische kant van artificial intelligence-inzet om games te maken.
Wel/geen artificial intelligence-beleid
Opvallend is dat veel gamestudio’s geen beleid hebben over het gebruik van generatieve artificial intelligence (genAI). Dit geldt voor net iets minder dan eenderde (32%) van de respondentenm valt te lezen in het rapport van de Game Developers Conference (GDC), die in maart plaatsvindt. Een iets kleinere groep (30%) geeft aan dat genAI-tools optioneel zijn, voor het uitvoeren van het werk. Een kleine groep (7%) antwoordt dat bepaalde AI-tools zijn toegestaan, maar andere niet. En een iets grotere groep (12%) zegt dat hun werkgever gebruik van genAI-tools niet toestaat.
Momenteel lopen er meerdere rechtszaken over de vraag of artificial intelligence-toepassingen niet inbreuk maken op auteursrechten. Dit zit ‘m in het gebruikte materiaal (tekst, beeld, video) waar algoritmes op zijn getraind, waarna AI-toepassingen dan ook content kunnen aanmaken. De kernvraag is hoe ‘eigen’ dat AI-werk dan wel is.
Artificial intelligence: Een typische IT-hype?
De afgelopen maand weer volop in het nieuws: CEO’s willen in 2024 meer doen met artificial intelligence.
De afgelopen maand weer volop in het nieuws: CEO’s willen in 2024 meer doen met artificial intelligence, artificial intelligence prompt specialisten verdienen meer geld en de Nederlandse Overheid en de EU vinden van alles van AI. De hype is compleet, iedereen schrijft en praat erover, er is angst voor de toekomst en de technologie is disruptive. Dus moet iedere CEO wel zeggen dat “de organisatie” hier iets mee moet, je wilt toch niet voor oud, star en behoudend versleten worden?
Is er dan geen twijfel? Dat al die persoonlijke, vertrouwelijke en misschien zelfs wel privacy gevoelige data en bedrijfsgeheimen zomaar aan een publieke artificial intelligence applicatie aangeboden worden? Wat gebeurt er nadat je de <ENTER> toets hebt ingedrukt en er een 2 pagina korte samenvatting of een kekke marketingtekst uitrolt. Is die input dan verdwenen? Nee mallerd, die gegevens zijn nu van ChatGPT of Bard en worden gebruikt om andere gebruikers slimme antwoorden te geven. Als je het niet hardop op een zeepkist op de Albert Cuyp durft te roepen zou je het misschien ook niet zomaar aan AI moeten voeren.
Veel bedrijven hebben hun interne datastrategie niet op orde en zouden eerst eens alles op alles moeten zetten om te begrijpen welke gegevens er nou precies zijn, wie de eigenaar is en hoe deze gegevens beschermt en gebruikt kunnen worden om slimmer, sneller en efficiënter zaken te kunnen doen.
En natuurlijk kan een specifieke private artificial intelligence-implementatie voor jouw organisatie heel veel betekenen. Maar als er dan een rapport van het MIT verschijnt waarin duidelijk staat dat zo’n eigen AI-applicatie toch wel heel duur is en daarom niet zomaar 1-2-3 hier en daar wat banen kan vervangen, dan moet de realiteitszin het weer even overnemen.
We gaan ons personeel informeren dat ze niet zomaar alles aan ChatGPT of Bard mogen geven en we gaan onze data-strategie op orde brengen. Zodat onze IT omgeving vooral flexibel wordt. Want als we al die slimme oplossingen die AI voor ons bedenkt niet eens kunnen implementeren met onze huidige IT Infrastructuur, dan wordt het toch wel erg ingewikkeld en frustrerend.