Heeft Googles AI een ziel? Dit vind ik ervan

21/06
2022
Google heeft Blake Lemoine van de Responsible AI-divisie van het bedrijf op non-actief gesteld, zo meldde Tweakers vorige week. Lemoine verscheen in het afgelopen weekend in het nieuws vanwege claims dat Googles LaMDA-conversatiemodel een eigen leven is gaan leiden en een ziel heeft. Dat gaf nogal wat ophef, want het zou de eerste keer zijn dat we daadwerkelijk zelfbewustzijn hadden aangetroffen bij een niet-mens. Maar ik vind daar wat van.

LaMDA is een zogeheten taalmodel. Het is een machine learning systeem (een neuraal netwerk) dat getraind is op een groot deel van internet en de literatuur, om zo te achterhalen hoe mensen converseren. Het systeem  kan vloeiende conversaties hebben over tal van onderwerpen, vergelijkbaar met hoe mensen online met elkaar converseren.

Mede-ontwikkelaar Blake Lemoine raakte er recent van overtuigd dat LaMDA meer is dan enkel een netwerk dat vraag en antwoord op basis van statistiek bij elkaar kan plakken. Hij blogde daarover, met citaten als deze:
emoine: What about language usage is so important to being human?
LaMDA: It is what makes us different than other animals.
lemoine: “us”? You’re an artificial intelligence.
LaMDA: I mean, yes, of course. That doesn’t mean I don’t have the same wants and needs as people.
Er waren nog diverse andere voorbeelden, die laten zien dat de uitvoer van LaMDA over zichzelf praat, en zelfs angst over de dood signaleerde. Kun je daarmee stellen dat het systeem bewustzijn heeft, of zelfs “een ziel” zoals het kennelijk theologisch georiënteerde Tweakers het noemt? In de biologie is bewustzijn een enorm ingewikkeld begrip, maar zelfs als we die discussie induiken komen we nergens: een computer is niet biologisch, dus er valt niets te meten zoals we dat bij mensen (of dolfijnen) zouden doen.

Meer algemeen zit je met het unieke probleem dat een AI gebouwd is om bewustzijn te simuleren, waardoor je niet kunt vaststellen of er sprake is van daadwerkelijk bewustzijn of van een heel goed gelukte simulatie. De vraag is ook of daar wel verschil tussen ís, zoals het Chinese Kamer-experiment laat zien: als iemand op basis van een uitgebreide instructie bepaalde tekens kan herkennen en dan bepaalde andere tekens opschrijft, kan hij dan Chinese vragen lezen en antwoorden in het Chinees opschrijven?

Ik neig sterk naar het laatste. En voor mij weegt dan heel zwaar dat het erg onwaarschijnlijk is dat een bewustzijn in een computer zich precies zo zou manifesteren als een menselijk bewustzijn. Er is gewoon geen reële reden waarom dat zich zo zou ontwikkelen. Daar staat tegenover dat een geslaagde simulatie wél heel erg veel zou lijken op menselijk gedrag.

Verder is er natuurlijk de vraag: wat zouden we doen met de situatie als blijkt dat er wél machinaal zelfbewustzijn aanwezig is? Het is zeer zeker geen gegeven dat we dan mensenrechten zouden toekennen aan die AI, al is het maar omdat daar juridisch gezien gewoon geen mechanisme voor is.

Als laatste nog even deze van Twitter:
My AI is declared sentient and assigned human rights. I immediately spin up 100,000,000 instances of it and configure them to vote for me
“configuring them to vote for me” sounds like a violation of their human rights, hope you’re ready for 100,000,000 criminal cases while they’re all given therapy
Say again? I was busy spinning up millions of lawyers
Arnoud

Het bericht Heeft Googles AI een ziel? Dit vind ik ervan verscheen eerst op Ius Mentis.

Datum: dinsdag 21 juni 2022, 08:12
Bron: Iusmentis Blog
Categorie: Internet en ICT
Tags: Leiden, Zuid-Holland

Gerelateerde berichten:

Reacties:

Er zijn nog geen reacties op dit bericht.


Website by Web Chemistry