Onder ede verklaren of je eerdere uitspraken deepfakes zijn, kan dat?

04/05
Tesla-topman Elon Musk moet onder ede komen verklaren over eerdere uitlatingen over Autopilot, berichtte Reuters onlangs. Die eerdere uitlatingen staan op video, maar zoals RTL Nieuws eerder berichtte, het zou een deepfake-video kunnen zijn. “Musks advocaten zeggen dat de topman zich niks herinnert van dat interview.” (Hoi Mark) De rechtbank wil hem nu alsnog langshebben. Het riep wel vele vragen op, hoe dat zit met deepfakes (of de kans daarop) in het bewijsrecht.

De achtergrond van dit verhaal is een dodelijk ongeval met een Tesla (model X), waarbij een Apple-ingenieur om het leven kwam die rekende op de werking van Tesla-stuurhulp Autopilot. De nabestaanden stellen dat dit overlijden te wijten is aan Tesla, dat haar product overhypte. Een van de argumenten daarbij is een uitlating uit 2016 van Musk, te weten
“A Model S and Model X, at this point, can drive autonomously with greater safety than a person. Right now.”
Musk zei dit in 2016 op een podium bij de bekende conferentie Code Conference, in een Q&A met journalisten. De video daar is 6 jaar geleden op Youtube gepubliceerd door Recode, de organisatie achter die conferentie die deel is van het Vox-uitgeefconcern. Van deze video, althans dit stukje, zegt Musk nu dus via zijn advocaat dat hij zich niet kan herinneren wat er is gezegd en dus twijfelt aan de juistheid van die uitspraak. (Ik zou ook willen dat niet gezegd te hebben in de context van zo’n rechtszaak, dit is vrij sterk bewijs dat Tesla als bedrijf Autopilot promootte als iets dat beter is dan menselijke oplettendheid.)

De advocaten gooien er nog een mooie stelling achteraan:
In addition Musk, “like many public figures, is the subject of many ‘deepfake’ videos and audio recordings that purport to show him saying and doing things he never actually said or did,” Tesla said.
Nou zal dat allemaal best, maar de vraag is hoe dat meeweegt in zo’n specifieke rechtszaak. De kern is (in Californië en bij ons) “wie eist, bewijst”, of dus iets formeler “hij die zich op het rechtsgevolg van een stelling beroept, moet deze bewijzen”. De eisers stellen dat de auto was verkocht als superveilig terwijl deze dat niet was, dus die moeten bewijzen dat Tesla dat soort dingen heeft gezegd. Een uitspraak van Tesla-topman Musk is heel mooi bewijs, dus ik snap dat ze die uitspraak meegenomen hebben in hun bewijsvoering.

Natuurlijk mag Tesla tegenbewijs aandragen, bijvoorbeeld dat dat niet zo bedoeld is of uit de context is gehaald, of sloeg op een ander model of weet ik veel. Je kunt ook de authenticiteit van het bewijs aanvechten, en dan is “deepfake” in principe net zo’n argument als “er is geknipt” of “dat zei ik in 2013 over de model S en ik heb het in 2015 teruggenomen”. Alleen: wanneer er zo’n concrete video is uit onverdachte bron, dan moet je meer doen dan alleen maar zéggen dat het bewijs niet klopt. Er moet dus iets op tafel komen waaruit kan worden gehaald dat er is geknipt, of dat het uit een oudere video komt of noem maar op. En dat lijkt er tot nu toe niet te zijn.

De theoretische mogelijkheid dat een video nagemaakt kan worden, is op zichzelf geen argument. Alles kan (koffiekan, theekan) maar als de andere partij een goed verhaal had waarom de video echt is, dan moet je toch zeker inhoudelijk reageren. En het verhaal klinkt goed: video staat al zes jaar op Youtube, is gemaakt door de organisatie, die staat bekend als journalistiek en onafhankelijk, de video heeft geen rare knips of kwaliteitsverlies of andere opmerkelijkheden en Musk wordt al jaren geciteerd op basis van die conferentie-uitspraken. Dan geloof ik het gewoon niet meer, dat de video nep zou zijn.

Arnoud

Het bericht Onder ede verklaren of je eerdere uitspraken deepfakes zijn, kan dat? verscheen eerst op Ius Mentis.

Datum: donderdag 4 mei 2023, 08:12
Bron: Iusmentis Blog
Categorie: Internet en ICT
Tags: Ede, Gelderland

Gerelateerde berichten:

Reacties:

Er zijn nog geen reacties op dit bericht.


Website by Web Chemistry