We hebben AI-wetgeving nodig waarin onze rechten echt beschermd worden

01/04
2021
De Europese Commissie werkt aan Europese wetgeving om het gebruik van kunstmatige intelligentie te reguleren. Dat is hard nodig, want terwijl de technologie zich wereldwijd razendsnel ontwikkelt, loopt wetgeving nog erg achter. Inmiddels is er een commissieLees hier over de commissie en haar taken ingesteld die de haalbaarheid van de wet zal toetsen. Wij schreven deze commissie aan en adresseerden de belangrijkste voorwaarden die nodig zijn om mensenrechten te beschermen.

Grote ambitiesVorig jaar publiceerde de Europese Commissie al een witboek over kunstmatige intelligentie waarin het voorliep op toekomstige wetgeving. Daarin werd de wens uitgesproken om van Europa wereldleider te maken op het gebied van innovatie in data-technologie, maar mét behoud van grondrechten. Een erg grote ambitie gezien het feit dat andere werelddelen al volop experimenteren met kunstmatige intelligentie, waarbij mensenrechten vrijwel geen rol lijken te spelen. Zo wordt in China kunstmatige intelligentie ingezet om etnisch te profileren. Met gezichtsherkenningstechnologie gaat er een Oeigoeren-alarm af als een persoon het uiterlijk heeft van de onderdrukte minderheidsgroep.

Bindende regelsOm te voorkomen dat mensenrechten in Europa worden geschonden bij het gebruik van kunstmatige intelligentie sorteert de Europese Commissie voor op mensenrechten impact assessments waarmee risico’s in kaart gebracht moeten worden voordat er gebruik wordt gemaakt van kunstmatige intelligentie. Wat ons betreft is dat echter niet voldoende om ervoor te zorgen dat rechten geborgd worden. Want organisaties krijgen daarmee te veel ruimte om zelf te bepalen of ze risico’s erg genoeg vinden om maatregelen te nemen die de risico’s wegnemen. Dat zien we namelijk ook gebeuren bij de privacy impact assessments die we kennen uit de Europese privacywet. Daarom dringen wij aan op duidelijke en bindende regels waar organisaties zich aan moeten houden, waarbij de rechten van mensen centraal moeten staan.

Organisaties krijgen te veel ruimte om zelf te bepalen of ze risico’s erg genoeg vinden om maatregelen te nemen die de risico’s wegnemen

Meer dan transparantieBij kunstmatige intelligentie gebeurt er van alles in een computer dat niet zichtbaar is voor mensen die erdoor geraakt kunnen worden, bijvoorbeeld wanneer een computer een besluit neemt over het recht op een uitkering, of wanneer zo’n besluit van een ambtenaar voor een deel gestuurd wordt. Daarom is transparantie een vaak genoemde voorwaarde. Wij denken echter dat er meer nodig is dan transparantie. Mensen moeten kunnen achterhalen of een besluit op de juiste manier genomen is, waar een besluit op gebaseerd is, en waarom welke factoren een rol spelen. Het moet daarom niet alleen transparant, maar ook controleerbaar zijn.

Effectief toezichtMomenteel is er nog te weinig effectief toezicht op het gebruik van kunstmatige intelligentie. In Nederland kunnen er verschillende toezichthouders bevoegd zijn met ieder een eigen aandachtsgebied. De één voor het gedeelte dat gaat over de bescherming van persoonsgegevens, de ander voor mensenrechten in het algemeen en dan zijn er nog toezichthouders die gaan over financiële aspecten. Zo overziet iedere toezichthouder in theorie een deel, maar niemand het geheel. In theorie, omdat de praktijk uitwijst dat niet alle toezichthouders voldoende middelen hebben om hun werk te kunnen doen. Zo bleek uit onderzoek dat de Autoriteit Persoonsgegevens veel te weinig budget en capaciteit heeft om haar wettelijke taken uit te voeren, laat staat om bij te benen met de ambities op het gebied van kunstmatige intelligentie. Daarom benadrukken we het belang van effectief toezicht op kunstmatige intelligentie.

Zo overziet iedere toezichthouder in theorie een deel, maar niemand het geheel.

In sommige gevallen liever geen experimentenToepassingen van kunstmatige intelligentie kunnen heel ingrijpend zijn voor mensen. In sommige gevallen dermate ingrijpend dat we geloven dat de voordelen van de techniek niet opwegen tegen nadelen. Daarom hebben we, samen met 61 andere maatschappelijke organisaties opgeroepen tot restricties van bepaalde toepassingen van kunstmatige intelligentie. Zo willen we bijvoorbeeld geen gezichtsherkenning in de openbare ruimte, of kunstmatige intelligentie dat de toegang tot het rechtssysteem of socialezekerheidsvoorzieningen belemmert.

Wij zullen ons, samen met ons Europese netwerk van digitale rechten organisaties, inspannen om een wet af te dwingen waarin mensenrechten effectief worden beschermd.

Lees de brief die we schreven aan the Committee on Artificial Intelligence en the European Center for non-profil law als waarnemend lid van de commissie

Datum: donderdag 1 april 2021, 08:39
Bron: BitsOfFreedom
Categorie: Internet en ICT
Tags: China

Gerelateerde berichten:

Reacties:

Er zijn nog geen reacties op dit bericht.


Website by Web Chemistry