Getty klaagt Stable Diffusion-maker aan vanwege `misbruik’ afbeeldingen voor AI

23/01
0fjd125gk87 / Pixabay

Stockfotodatabank Getty Images heeft Stable Diffusion-maker Stability AI aangeklaagd, las ik bij Tweakers. Stability AI zou haar plaatjesgenerator (mede) hebben getraind op `miljoenen’ afbeeldingen van Getty, en daarbij de verkeerde (lees: te goedkope) licentie hebben afgenomen om bij de bronbeelden te kunnen. Het roept natuurlijk de vraag op, is het überhaupt inbreuk op auteursrechten als je een AI traint op beschermde werken?

Ik heb al eerder geblogd over je foto als datapunt in iemands AI, waarbij de kern is of het leren van een foto telt als een inbreuk op het auteursrecht. Hoofdregel van het auteursrecht is immers dat een stukje van het werk in de uitvoer terecht komt, en als ik alleen maar de onderliggende informatie extraheer dat “ondergaande zon” hoort bij een halfronde gelige bol, dan zie ik niet hoe ik een auteursrecht schend.

Dit soort plaatjesgeneratoren werkt alleen subtiel net iets anders. Ze extraheren niet de informatie van hoe dingen eruit zien (zoals een leerling-kunstenaar zou doen) om daar vervolgens nieuwe werken mee te maken. Zoals Matthew Butterick (die ook Github aanklaagt over hun AI) uitlegt:
The first phase in dif­fu­sion is to take an image (or other data) and pro­gres­sively add more visual noise to it in a series of steps. (…) At each step, the AI records how the addi­tion of noise changes the image. By the last step, the image has been “dif­fused” into essen­tially ran­dom noise. The sec­ond phase is like the first, but in reverse.
Het systeem bewaart dus een soort-van gecomprimeerde versie van elke bronafbeelding, waarbij bij elke afbeelding termen onthouden worden waar ze over gaan. Butterick laat dit zien met deze afbeelding:

De originele afbeelding linksboven wordt via twee stappen omgezet naar ruis, wat je kunt zien als een soort-van hash, een soort-van compressie. Reconstructie gebeurt door die ruis als invoer te nemen en via een omgekeerde functie te vertalen naar een bronafbeelding.

De volgende stap is het genereren van nieuwe afbeeldingen. Dit illustreert Butterick met de volgende afbeelding, die laat zien hoe men van twee portretafbeeldingen een nieuwe maakt (klik voor groot):

De groene afbeelding is waar het uiteindelijk om gaat. Deze wordt niet gemaakt door pixels samen te voegen (zoals bij de rode) maar door de soort-van hashes van de twee bronafbeeldingen samen te voegen en daar de reconstructie op los te laten.

Het wordt dan nog iets complexer door de constructie van prompts, die zeg maar bepalen welke bronafbeeldingen worden gebruikt. Maar de kern blijft: bronafbeeldingen worden in soort-van gecomprimeerde vorm samengevoegd en daaruit wordt dan een nieuwe afbeelding gereconstrueerd. Deze techniek kent geen analogie, maar heel breed gekeken zou je dit wellicht een vorm van collageren kunnen noemen? Daar gaat het om kleine stukjes uit vele werken, hier meer om vage versies van vele werken.

Kom ik terug bij die hoofdregel: als een stukje van een werk herkenbaar in andermans werk zit, en dat stukje geeft blijk van het creatief vermogen van de maker van het origineel, dan is sprake van inbreuk (tenzij citaatrecht et cetera). De analyse van Butterick laat zien dat er stukjes van bronwerken in gegeneerder werken terechtkomen, zij het vaag. Dat roept de vraag op of die stukjes blijk-van-creativiteit nog wel aan te wijzen zijn – nog los van de vraag hoe een individuele rechthebbende kan aantonen dat zijn werk gebruikt is.

Bij Getty is dat laatste iets minder een issue, als bewezen is dat er miljoenen afbeeldingen in het systeem ingelezen zijn dan zou de inbreuk vrij snel vast moeten staan. Alleen is het de vraag of dit wel “inbreuk” te noemen is, gezien Stability AI op basis van een licentie de afbeeldingen gebruikte. En mogelijk zijn ze dan de voorwaarden te buiten gegaan, maar dat noemen we eerder contractuele wanprestatie dan een rechtenschending. (Dat heeft gevolgen voor de schadeclaim, proceskosten enzovoorts.)

Het zou in het algemeen wel raar zijn als vaststaat dát er grootschalig allerlei rechten worden geschonden door dit transformatieve proces, maar dat geen enkele rechthebbende kan optreden tenzij deze door de vage schimmen heen kan prikken en zijn individuele foto aanwijzen.

Arnoud

Het bericht Getty klaagt Stable Diffusion-maker aan vanwege `misbruik’ afbeeldingen voor AI verscheen eerst op Ius Mentis.

Datum: maandag 23 januari 2023, 08:14
Bron: Iusmentis Blog
Categorie: Internet en ICT

Gerelateerde berichten:

Reacties:

Er zijn nog geen reacties op dit bericht.


Website by Web Chemistry