Photo by Cash Macanaya on Unsplash

We kijken naar manieren waarop makers AI kunnen gebruiken bij het creëren van nieuw werk en hoe we makers kunnen ondersteunen die AI willen benutten. Maar bovenal vinden we het grootschalige gebruik van het creatieve werk van alle Europese makers en kunstenaars door een handje vol Amerikaanse Big Tech bedrijven, voor het trainen van hun AI, onrechtmatig. En we onderzoeken de juridische mogelijkheden om dat aan te pakken. Daarbij willen we er ook strijden voor het minimaliseren van het verlies aan werkgelegenheid en dat veranderingen in werk en banen niet ten koste gaan van individuele makers en (uitvoerend) kunstenaars. 

In de huidige AI Act zien we geen bepalingen terug die inspelen op de impact van generatieve AI op werkgelegenheid. In de huidige vorm dragen de bepalingen niet bij aan het voorkomen van verlies van werkgelegenheid, een serieuze dreiging door de grootschalige toepassing van steeds geavanceerdere generatieve AI. Verschillende beroepsgroepen ondervinden nu al aan den lijve de effecten hiervan. Het ontbreken van bepalingen die hier zorg voor dragen vinden we dan ook een zeer kwalijke zaak. Wij zetten ons hier immers al een tijdje vurig voor in middels een actieve lobby. 

Wat staat er wel in de AI Act? 

Er zijn twee relevante vereisten in de AI Act voor aanbieders van generatieve AI-modellen: 

1. Er moeten beleid komen om het auteursrecht te respecteren en vooral om de opt-out van makers effectief te maken. Daarbij moet gebruik gemaakt worden van de beschikbare state-of-the-art technologieën, dat betekent dat deze mogelijkheid meebeweegt met nieuwe mogelijkheden waardoor het steeds makkelijker en beter wordt 

Hoewel een opt-out systeem in theorie auteursrechtelijke bescherming kan bieden voor de toekomst, heeft het geen effect op het verleden. De huidige AI-modellen zijn getraind op basis van data/werken die zonder toestemming van de makers gebruikt zijn. Algemeen wordt aangenomen dat het geven van toestemming hier overigens niet voor nodig is, omdat het trainen onder een uitzondering in de Europese wet valt. Wij hebben hier sterke twijfels over en onderzoeken de mogelijkheden om dit aan te vechten.
Een maker die van de mogelijkheid van opt-out gebruik maakt, voorkomt enkel dat zijn werk gebruik wordt voor het trainen van AI. Het biedt geen enkele bescherming tegen de bedreiging die AI vormt voor de werkgelegenheid van deze maker.   

2. Het opstellen en openbaar maken van een gedetailleerde samenvatting van de inhoud die is gebruikt voor het trainen van het algemene AI-model. 

Deze openbaarmaking van gegevens die gebruikt zijn bij het trainen van AI-modellen moet uitgebreide informatie bevatten, zoals de belangrijkste datasets die zijn gebruikt aangevuld met uitleg over andere gebruikte gegevensbronnen.
Dit vinden wij een positieve ontwikkeling, want hiermee moet zichtbaar worden welke werken zijn gebruikt voor het trainen van de AI. Wij gaan ons echter inzetten om deze gedetailleerde samenvatting zo specifiek mogelijk te krijgen.  

Naar aanleiding van deze wet moet er nog veel worden uitgewerkt en geïmplementeerd in de Europese lidstaten. Dit biedt kansen om onze zorgen te uiten en stevige en veilige grenzen vast te stellen. We hebben nauw contact met onder andere ministeries van OCW, SZW, J&V, DEN, SER en Europarlementariër Kim van Sparrentak over AI.  

We blijven ons inzetten voor een evenwicht tussen innovatie en de bescherming van rechten en werkgelegenheid in de culturele en creatieve sector.