Over de morele status van de robot

Ik wou dat ik een beter mens was en een beter verstand had. Eigenlijk is dat het zelfde.” (Ludwig Wittgenstein, 1917)

De mens kan het vermogen om in een concrete situatie in te schatten waar het om gaat niet ontkend worden. Deze gevoeligheid voor waar het om draait, een vermogen dat ontwikkeld kan en moet worden, komt in ieder weten en handelen tot uitdrukking. Ze gaat vooraf aan ieder onderscheid tussen ‘zijn’ en ‘behoren’. Deze gevoeligheid is een vorm van intelligentie die de kern en de eenheid uitmaakt van ons kennen en willen. Wellicht wijst Wittgenstein in bovenstaand citaat, afkomstig uit een brief aan zijn vriend Paul Engelman, op deze eenheid. ‘Verstand’ moet hier in brede zin opgevat worden als intelligentie, het vermogen de werkelijkheid te ‘verstaan’.

Deze gevoeligheid heeft in de loop van de geschiedenis van denken en handelen onder andere geleid tot de ontwikkeling van ‘kunstmatige intelligentie’ (AI), machines die ‘gedragingen’ vertonen die we als intelligent, zinvol in een gegeven situatie, herkennen.

De toenemende mate van ‘zelfstandigheid’ van deze technologie, bijvoorbeeld in de vorm van robots en zelfrijdende autos, brengt het West-Europese denken al enige tijd in verwarring. Zijn sociale robots morele agenten, die verantwoordelijk zijn voor wat ze doen? En anderszijds: hebben robots rechten? De discussie over deze kwestie wordt gekenmerkt door de tegenstelling tussen zijn en behoren.

Beschikken onze intelligente zelfstandige machines, onze sociale robots, misschien niet over het vermogen in te schatten waar het in een concrete situatie om te doen is?

Voor een recente review van het debat over de morele en legale status van robots zie (Schröder 2021). De bovengenoemde verwarring heeft ook de burelen van het Europese Parlement bereikt. De leden zijn door informatici en ethici gewezen op de technische idee van de ‘sociale robot’, een constructie die, zo wijzen ervaringen gesteund door diverse wetenschappelijke experimenten uit, door mensen vaak eigenschappen krijgen toegedicht die we tot voor kort alleen nog aan mensen toedichten. Mensen voeren zelfs gesprekken met deze robots en getuigen ervan emotionele banden met deze artefacten te hebben, vergelijkbaar met de banden die ze met hun huisdier of psycholoog hebben.

Erica, the humanoid like robot from the ERATO ISHIGURO Symbiotic Human-Robot Interaction Project 

Maar als dat zo is, moeten deze nieuwe sociale agenten die volgens sommige ethici in zekere zin morele agenten zijn (ze zouden immers morele beslissingen nemen) dan ook geen (burger)rechten hebben?

In 2017 werd de android Sophia buitengewone (honorable) burgerrechten verleend door Saudi-Arabië. Het betreft hier een publiciteitsstunt die als onderdeel gezien kan worden van de politiek-economische context waarbinnen de ontwikkeling van intelligente technologie zich afspeelt. Voor een analyse van dit fenomeen zie het artikel The political choreography of the Sophia robot (Parviainen en Coeckelbergh, 2021). Volgens Schröder (2021) kreeg de Japanse ‘robot’ Paro in 2014 al Japanse ‘burgerrechten’.

Kate Darling van het MIT Media Lab hield een pleidooi voor het toekennen van rechten aan sociale robots om ze beschermen tegen misbruik en geweld. Zoals we ook wetten hebben die dieren tegen mishandeling door mensen beschermen.

Assuming that our society wants to protect animals regardless of their capacities, because of our personal attachments to them, society may well also want to protect social robots regardless of their capacities.

Nu is er een groot verschil tussen dieren en robots. Zoals Darling zelf al aangeeft is het motief voor het beschermen van robots dat mensen er persoonlijk aan gehecht raken. Het lijkt me dan ook te gaan om het leed dat de mensen wordt aangedaan door hun geliefde robot iets aan te doen. Dat is een ander motief dan het motief dat ten grondslag ligt aan het beschermen van andere diersoorten. Ook dieren die geen eigendom zijn vallen onder de bescherming van de wet. Sociale robots komen niet in het wild voor. Het zijn instrumenten in dienst van de mensen. Hun ‘zelfstandigheid’ is slechts relatief in de context van het gebruik dat we ervan maken. Zodra ze geen waarde meer hebben voor de eigenaar of gebruiker zijn ze niet meer dan een ongebruikt stuk gereedschap.

Maar voor de bescherming van culturele goederen met historische waarde bestaan al regels en wetten. Sprekende, tekst producerende, machines kunnen goed vergeleken worden met boeken. Er lijkt me dan ook geen enkele reden om nieuwe wetgeving voor sociale robots in te voeren.

Toch denken sommige mensen, ethici, theologen, filosofen en rechtsgeleerden daar anders over.

Gewaarschuwd door de ervaring dat wetgeving altijd achter loopt bij de technologische ontwikkeling, heeft de EU gemeend de toekomst nu eens een stap voor te moeten zijn en te moeten anticiperen op de dingen die ons volgens de moderne futurologen te wachten staan.

In de Resolutie over Burgerrechten voor Robots stelt het Europese Parlement in een aanbeveling aan de Europese Commissie (paragraph 59 f):

“Creating a specific legal status for robots in the long run, so that at least the most sophisticated autonomous robots could be established as having the status of electronic persons responsible for making good any damage they may cause, and possibly applying electronic personality to cases where robots make autonomous decisions or otherwise interact with third parties independently;”

Het moet niet gekker worden, zal menigeen denken die dit voorstel leest. Dat vonden een heleboel wetenschappers ook. Ze schreven een Open Brief aan de Europese Commissie over Kunstmatige Intelligentie en Robotica waarin ze vanuit diverse perspectieven hun bezwaren te kennen geven tegen de idee om robots als personen te zien. Zo schrijven ze:

From a technical perspective, this statement offers many bias based on an overvaluation of the actual capabilities of even the most advanced robots, a superficial understanding of unpredictability and self-learning capacities and, a robot perception distorted by Science-Fiction and a few recent sensational press announcements.

From an ethical and legal perspective, creating a legal personality for a robot is inappropriate whatever the legal status model.

De ondertekenaars van de brief vinden dat de Europese Unie zich beter kan richten op de risico’s die mensen lopen door het gebruik van AI en Robots door regels op te stellen voor bedrijven die deze technologie ontwikkelen.

Voorstanders zijn van mening dat (sociale) robots de status van een electronisch persoon zouden moeten hebben, een legale entiteit die verantwoordelijk is voor de acties die hij (zij, het?) uitvoert. Tegenstanders voeren allerlei argumenten aan waarom ze vinden dat dit een misvatting is. Er zijn inmiddels tientallen boeken en honderden artikelen geschreven over het probleem. Er worden verbanden gelegd met ‘environmental ethics’ en de strijd voor dierenrechten. Als niet-menselijke entiteiten zoals rivieren, oerwouden of dieren een legale status kunnen krijgen waarom robots dan niet? Als niet-natuurlijke personen zoals bedrijven of voetbalclubs als Philips of Manchester United ter verantwoording kunnen worden geroepen waarom robots dan niet? Is de ‘zelf-rijdende’ auto verantwoordelijk voor het leed andere weggebruikers aangedaan? Is de onbemande zelf-doelzoekende drone verantwoordelijk voor de schade die ze aanricht? De ontologische en morele status van het technisch artefact in het algemeen en de sociale robot in het bijzonder staat ter discussie. Is dit slechts een stuk gereedschap, een instrument of verdient de robot de morele status van een persoon, die we ter verantwoording kunnen roepen?

Volgens sommige auteurs hoeft een robot geen persoon te zijn om morele agent te zijn. Volgens (Sullins 2006) is een robot een morele agent wanneer deze aan drie voorwaarden voldoet: a) de robot is ‘significantly autonomous from any programmers or operators of the machine’; b) het is alleen mogelijk het gedrag van de robot te verklaren ‘by ascribing to it some predisposition or ‘intention’ to do good or harm’: c) de robot toont in zijn gedrag empathie en verantwoordelijkheid tegenover andere morele agenten. Robots die aan deze drie voorwaarden voldoen moeten morele rechten hebben en als verantwoordelijke entiteiten beschouwd worden, of ze nu wel of niet de status van persoon hebben. Volgens Sullins zijn robots geen personen, waarbij hij het begrip ‘persoon’ als bekend veronderstelt. Uit zijn criteria kunnen we afleiden dat volgens Sullins het antwoord op de vraag of een robot een morele agent is volledig afhangt van de zienswijze en het begrip van de mens die de robot beschouwt. Hoe weten we of ‘gedrag’ gemotiveerd is door empathie? Zorgt een ‘zorgrobot’ uit zorg? Of heeft het functioneren van de robot slechts de uiterlijke kenmerken van het functioneren van de zorgende dochter voor haar moeder?

Voor het gerecht staat een figuur die de gedaante heeft van een persoon. Maar is dit werkelijk een persoon? Wat is de ware identiteit van de sociale robot? Is dit echt of is dit kunst, namaak? Dat is de vraag. Het verschil tussen echt en namaak is lastig experimenteel vast te stellen, omdat deze slechts kan oordelen over de verschijningsvormen zoals die in de experimentele settings optreden. Maar daarin schuilt juist het probleem: het beeld lijkt sprekend op het origineel. De vraag stelt de rechter voor een heel ander soort probleem: wat is het verschil tussen echt en gemaakt?

Het kan zijn dat het is alsof de ogen van een robot of een portret je aankijken, maar dat wil niet zeggen dat iemand je daadwerkelijk aankijkt. Ishiguro ontwikkelde zijn humanoids om te onderzoeken hoe hij het gevoel van aanwezigheid (presence) bij mensen die ze ontmoeten kon bewerkstelligen. Mensen zeggen dat ze bij het zien van de blik van de humanoïde sprekende robots een unheimisch, (‘uncanny’), gevoel ervaren. Het is de griezeligheid van de ervaring wanneer een dood gewaand persoon plotseling voor je de ogen opent en je aankijkt.

Met deze begripsmatige problematiek hangt een praktische problematiek samen. Techniek moet om techniek te zijn dienstbaar zijn aan de mens. Ze moet gebruiksvriendelijk zijn. Naarmate de techniek zelfstandiger wordt betekent dit dat ze moet kunnen verantwoorden waarom ze doet wat ze doet. Er is immers niets gebruiksonvriendelijker dan de ambtenaar die geen verantwoording aflegt voor wat hij doet en alleen maar verwijst naar de regels die hij moet volgen in de uitvoering van zijn taak. Volgens Kant is het verantwoordelijk zijn voor eigen handelen hét kenmerk dat de vrije persoon onderscheidt van de dingen en de machines die volgens de wetten der natuur werken.

Het probleem met de moderne technologie is dat ook de makers ervan vaak niet meer kunnen voorspellen hoe deze in alle omstandigheden zal werken. De techniek is te complex geworden doordat haar werking op statistische wijze afhangt van de omgeving waarin ze functioneert en de gegevens waarmee ze gevoed is. Ze wordt aan haar lot over gelaten. Wie kan dan nog ter verantwoording geroepen worden voor het gedrag van de techniek? (Sætra, Henrik Skaug, 2021).

Een belangrijke reden voor de wens de legale status van min of meer autonome technische artefacten vast te leggen is een oplossing te vinden voor wie aansprakelijk (‘accountable’) is voor de kosten ten gevolge van schade die door deze instrumenten veroorzaakt kunnen worden. De eerste vraag daarbij is of het wel verstandig is instrumenten te maken die zelf beslissingen nemen die mogelijk tot schade kunnen leiden. Van belang is dat mensen een goed beeld hebben van wat ‘autonomie’ precies betekent. Instrumenten moeten op een oordeelkundige manier gebruikt worden. Daarvoor is enige inzicht in hun werking noodzakelijk. Wie alleen naar het gedrag kijkt heeft wellicht de neiging daar al te snelle conclusies uit te trekken omtrent vermeende vermogens of capaciteiten waarover het instrument zou beschikken. In zekere zin werkt de techniek ook op grond van misleiding. Uit het feit dat de automaat bijvoorbeeld zegt “Toets uw code in” denkt de gebruiker dat deze hiermee ook bedoelt dat degene tot wie hij zich richt deze opdracht moet uitvoeren. Dit denken, het associëren van verschijnsel en oorzaak, is een automatisme dat berust op gewoonte. Het zijn dergelijke menselijke gewoontes waar de techniek gebruik van maakt. De machine ‘toont’ een tekst en wij als gebruiker zien daar een ‘zeggen’ in.

Als eerste criterium voor moreel agentschap wordt meestal de ‘autonomie’ van het technisch artefact genoemd. Volgens Sullins moet de robot ‘significantly autonomous from any programmers or operators of the machine’ zijn om moreel agent te kunnen zijn. Maar wat houdt dat in: ‘significantly autonomous’? Om wat voor relatie tussen mens en machine gaat het hier?

Wat is die vorm van ‘zelfstandigheid’ die we aan de technische artefacten toekennen? Hoe verhoudt deze zich tot de zelfstandigheid van de natuurlijke dingen en tot die van de levende en dode natuur? Wat is de achtergrond, wat is de ontstaanswijze van deze figuur die voor het gerecht staat en waarvan we de ware identiteit moeten bloot leggen? Als het om een humaan persoon gaat zouden we zeggen: “waar is dit er een van?” Om op deze vraag een antwoord te geven duiken we de geschiedenis in. Op zoek naar het ontstaan van de intelligente machine.

Over de ontdekking van feit en informatie

Volgens de historicus David Wootton was er voor 1700 geen sprake van ‘facts’, van ‘feiten’, zoals we die nu kennen. In The Invention of Science schrijft Wootton:

We take facts so much for granted that there have been few attempts to write their history, and none of them satisfactory. Yet, our culture is as dependent on facts as it is on gasoline. It is almost impossible to imagine doing without facts, and yet there was a time when facts did not exist.” (Wootton, 2016, p.252).

Natuurlijk bestonden er voor 1700 ook wel feiten. Ver vóór 1700 in 49 voor Christus bijvoorbeeld stak Gaius Julius Caesar de rivier de Rubicon over. Een memorabele actie waarmee hij een nieuwe burgeroorlog begon en het lot bezegelde van de Romeinse Republiek. We beschouwen dit als een historisch feit. Iets dat werkelijk heeft plaats gevonden. Waar Wootton ons echter op wijst is dat dit niet als feit werd gezien. Feiten bestonden er altijd wel maar niet als feit. Wat betekent dat?

In het hoofdstuk Facts gaat Wootton op zoek naar de oorsprong van het feit. Wat zijn dat voor dingen?

Wootton citeert Ronald Barthes over ‘facts’ (citaat uit , 2015):

The fact can only have a linguistic existence, as a term in a discourse, and yet it is exactly as if this existence were merely the ‘copy’, purely and simply, of another existence situated in the extra-structural domain of the ‘real’. (Barthes, The Discourse of History, 1967).

“Het feit kan alleen maar een talig bestaan hebben, als een term in een tekst.”

Maar, voegt Barthes toe: het is exact alsof dit bestaande object, slechts een ‘copy’ is, puur en simpel, van een ander bestaand iets, iets dat gesitueerd is in het buiten-structurele domein van de ‘realiteit’.

Barthes wijst op de dubbele gelaagdheid van het feit. Het is iets taligs en als zodanig kennelijk iets dat deel uitmaakt van een structuur, maar dat is slechts een beeld van iets dat in de werkelijkheid buiten die structuur bestaat.

De uitspraak dat “Caesar de rivier de Rubicon over stak” is omdat het uitspreekt wat werkelijk heeft plaats gevonden noodzakelijk waar.

Wanneer we iets als feit opvatten dan zien we het niet louter in zijn oorspronkelijke inhoudelijke kwalitatieve bepaaldheid maar als door het verstand voorzien van een structurele bepaaldheid. Feit als feit wil zeggen feit formeel genomen. De werkelijkheid wordt gevat volgens een bepaalde kenvorm. Het kennend subject voegt de oordeelvorm waarin op talige wijze de inhoud van het gekende wordt uitgedrukt toe aan de toedracht. Alsof deze tot de werkelijkheid zelf behoort. En dat is natuurlijk ook zo, anders was het niet de werkelijke inhoud die gekend en uitdrukt wordt. Maar het gekend zijn, het feit als feit, dat is er slechts van de zijde van het kennend subject aan toegevoegd. Het oordeel als talige door ons gemaakte constructie komt los te staan van de werkelijkheid die er in wordt uitgedrukt. Het gebeuren zegt zelf niet hoe het als feit moet worden opgevat. Het spreekt zich zelf niet uit als op een bepaalde manier gekend, alsof het zelfkennis zou hebben.

Wie doet alsof dit wel zo is die kan zo maar worden beticht van projectie, of van antropomorfisme. Zo ook degenen die zeggen dat de vervuilde oceanen en rivieren, de door toeristen en industrie verpauperde kusten, de door luchtverontreiniging verziekte bossen ons aan kijken en ter verantwoording roepen vanwege het onrecht dat de natuur is aangedaan.

Het feit wordt zodra het als feit gezien wordt als iets contingents opgevat, iets dat ook niet het geval had kunnen zijn. De zin waarin het gebeuren wordt beschreven komt tegenover de waarheidswaarde te staan. Die had ook niet waar kunnen zijn.

Het is niet toevallig dat de feiten als zodanig ontstonden tegelijk met de ontwikkeling van de experimentele natuurwetenschap. Deze is immers mathematisch van aard, zoals die andere historicus van de Mechanisering van het Wereldbeeld, Dijksterhuis overtuigend heeft laten zien. Het gegeven wordt opgevat als verschijningsvorm van een algemene wetmatigheid, een structurele bepaaldheid. Wat het geval is is een toevallige realisatie van een mogelijkheid in een veld van mogelijkheden. Er zijn vele mogelijke werelden denkbaar. En maakbaar.

Natuurlijk hielden vallende stenen zich voor Galileo en Newton ook al aan de valwetten, die door middel van wiskundige vergelijkingen worden beschreven. De natuurverschijnselen is het verder om het even hoe deze worden geformuleerd: als deeltjes of als golven.

De werkelijkheid wordt een systeem dat zich in een bepaalde toestand bevindt. Een feit is een beschrijving van een toestand.

De bewustwording van het feit als feit is een nieuwe fase in de ontwikkeling van de technische geest. Ze getuigt van een nieuwe reflectie die tot uitdrukking komt in het informatiebegrip. Informatie is feitelijke kennis van feiten.

Als er geen feiten bestaan dan ook geen informatie.

Er is dus een tijd geweest dat er helemaal nog geen sprake was van ‘informatie’. Ik bedoel daarmee niet dat er geen informatie was, maar men zag het niet als informatie. Terwijl nu alles lijkt te draaien om kennis en informatie. Vanuit een bepaalde perspectief kan alles worden opgevat als onderdeel in een informatieverwerkend systeem. Voor Floridi is alles informatie.

In de rechtspraak gaat het om de feiten. De rechter moet de informatie, de getuigenissen, op hun waarheidsgehalte toetsen, om de ware toedracht van het gebeuren vast te stellen. De rechter moet recht doen aan de waarheid.

De werkelijkheid als systeem

Sinds het einde van de 19de eeuw veranderde de werkelijkheid van de natuurwetenschap (‘science’) in een systeem dat bestaat uit deelsystemen omgeven door andere systemen waarmee ze interacteren. Een systeem bevindt zich in een toestand en verandering is verandering van toestand. Potentialiteit en veranderlijkheid wordt gerepresenteerd door een veld van mogelijke toestanden. Een onderscheid tussen een actief zelf of een passief zelf is volgens deze opvatting niet mogelijk. Het zelf van een systeem is geen echte substantie. De toestanden van het systeem is een verzameling van mogelijke waarden van zekere parameters, die staan voor grootheden als snelheid, massa, plaats. De waarden van deze parameters veranderen volgens bepaalde natuurwetten. Het proces is de continue stroom die de discrete toestanden met elkaar verbindt. De notie oorzaak is problematisch in dit wereldbeeld. Het systeem is niet zelf oorzaak van de afgrenzing van zijn omgeving, een kenmerk van levende organismes. Oorzakelijkheid komt overeen met wetmatigheid van gedrag. Oorzaak is in de ogen van de moderne wetenschap een metafysisch begrip. En dat geldt al helemaal voor de idee van causa sui, als iets dat bron is van zijn eigen activiteiten. In de idee van causa sui worden ‘uit zichzelf’ en ‘vanzelf’ als identiek gezien, niet onderscheiden.

Om het revolutionaire van de idee van de informatieverwerkende, denkende, machine in te zien en daarmee een beeld te krijgen van de eigen aard van deze technologie en om daarmee de ware identiteit van de robot vast te stellen, gaan we terug naar Heinrich Herz, op wiens experimentele werk de communicatietechniek van Marconi voort zou bouwen.

Techniek wordt alsmaar mathematischer. Daarom eerst een beetje mathematiek.

Het commutatief diagram van Herz

Een commutatief diagram is een schema zoals hieronder.

Een commutatief diagram voor de binaire implementatie van de decimale optelling

Dit diagram toont op schematische wijze hoe je het resultaat/gevolg van de optelling van twee decimale getallen (pijl naar rechts boven de blauwe streep) kan berekenen door deze twee eerst om te zetten naar twee binaire getallen (pijl naar beneden), daarop de methode/regels voor de binaire optelling uit te voeren (pijl naar rechts onder de streep) en het resultaat daarvan weer om te zetten naar het decimale getalstelsel (pijl naar boven). Ik zeg “decimale getallen” en “binaire getallen” waar je eigenlijk “decimale en binaire representatie van getallen” moet zeggen. We hebben sterk de neiging de getallen met hun talige voorstelling te identificeren. Dat geldt in het algemeen voor wiskundige objecten: om ze een identiteit te verlenen moeten we ze een ‘identifier’ (een ‘rigid designator’ in de zin van Kripke) toe kennen. Volgens het citaat van Ronald Barthes over de aard van het feit is er een exacte kopie tussen de talige en de benoemde werkelijkheid. In de wereld van het mechanische denken zijn betekenissen mathematisch exact en eenzinnig.

Het commutatief diagram is het schema dat Heinrich Herz gebruikt om het denken van de mechanica (en het mechanische van het denken) uit te leggen.

De volgende tekst komt uit zijn Prinzipien der Mechanik (1894).

“We maken voor onszelf inwendige beelden of symbolen van de uitwendige voorwerpen/toedrachten, en we maken ze wel zodanig dat de denknoodzakelijke gevolgen van de beelden steeds weer de beelden van de natuurnoodzakelijke gevolgen van de afgebeelde voorwerpen/toedrachten zijn.” (Zie figuur voor de Duitse tekst.)

Uit: Prinzipien der Mechanik (H. Herz, 1894)

Deze gedachtegang kunnen we schematisch door middel van het volgende commutatieve diagram voorstellen

Schema van Herz’ beeld van de fysica

Deze correspondentie tussen denkprocessen en natuurprocessen wordt uitgebuit in de denkende/rekenende machine. De logische AND-schakeling is een logische schakeling omdat de wiskundige relatie tussen de waarden van de invoervariabelen en de uitvoervariabele correspondeert met de tabel van de logisch and operatie (zoals Wittgenstein die in zijn Tractatus op nam en die in iedere Inleiding Logica te vinden is.)

Het kanaal wordt een programmeerbare machine, zodra de ingevoerde tekens niet alleen de toestand van het kanaal bepalen die aan de ontvangstkant worden uitgelezen, maar wanneer deze tekens het kanaal in een toestand brengen waardoor een fysisch proces in gang word gezet dat overeenkomt met de betekenis die in de tekens is uitgedrukt. De machine is een werkend teken geworden. Deze verwerkt informatie en produceert informatie.

Conclusie

We hebben de robot technologie bekeken in het licht van de historische ontwikkeling van de mathematische experimentele natuurwetenschap en technologie. Deze maakt de eigen aard van de zelfstandigheid van het technische instrument en de intelligente machine voor ons zichtbaar. Het technische ding ontleent zijn zelfstandigheid enerzijds aan het weergave zijn van een ontwerp, een abstract verstandsvorm, anderzijds aan de eigen werking van de natuur, waarin deze mathematische vorm is uitgedrukt. De informatieverwerkende machine is het product van de zelfreflectie van het natuurwetenschappelijke mathematische denken.

Zoals de jaarringen in de boomstam ons iets vertellen over de geschiedenis van de boom (een voorbeeld van ‘omgevingsinformatie’ uit Floridi 2014) en de geschiedenis omgekeerd de jaarringen verklaart, zo zegt de historische ontwikkeling van de technische geest ons iets over de ware identiteit van de robot.

De robot is er een van de mens. Ze ontleent heel haar identiteit aan de technische relatie die de mens met de natuur heeft. Als product van menselijk denken en doen ligt zowel haar identiteit als de verantwoording voor haar doen en laten bij de mensen.

De Japanner Hiroshi Ishiguro bouwt zeer realistische androïden die op hemzelf of een ander echt persoon lijken, zoals Erica, omdat hij wil weten wat presence betekent. Volgens het adagium “je snapt het pas als je het zelf kunt maken” wil hij namaak mensen maken die je het gevoel geven als je er bij in de buurt bent dat je niet alleen bent, zoals dat met echte mensen is. De primatoloog Frans de Waal doet in “Bezoek aan de Griezelvallei” verslag van zijn bezoek aan het instituut van de Japanse onderzoeker waar hij kennis maakt met het fenomeen “uncanny valley”. De Waal is verrast door de echtheid van de beleving die door het ‘gedrag’ van de robots wordt gecreëerd.

De analyse van de Hollandse bioloog over de oorsprong van zijn beleving is weldadig nuchter.

“Vermenselijking zit soms in de kleinste details. Als je bijvoorbeeld een kind iets aanwijst, volgt zijn blik eerst je hand, waarna hij even naar je gezicht opkijkt om te zien wat je bedoelt. Als een humanoïde robot met bewegende ogen geprogrammeerd is om hetzelfde te doen, denken we automatisch dat hij zich ook afvraagt waarom we iets aanwijzen, terwijl iedereen weet dat robots zich niets afvragen.”

“Knipperende ogen zijn essentieel. Een robot die niet met de ogen knippert, wordt al snel gezien als onecht. Dat is waarom ook speelgoedpoppen vaak bewegende oogleden hebben. Er is zelfs een term voor het gebied tussen echt en onecht: de ‘griezelvallei’. Tussen een ­gezond persoon en een duidelijke robot ligt een gebied van mensachtige zombies waarvan we griezelen, zoals van de Ishiguro-imitatie.”

We denken automatisch, op grond van bijvoorbeeld gesimuleerde levensechte oog- en hoofdbewegingen, dat de humanoïde zich iets afvraagt. Maar een robot is puur buitenkant. Ze hebben geen ‘zelf’ zoals apen en mensen. “Apen lijken op ons via homologie, afstamming; robots via analogie.”

De Waal gebruikt het woord ‘automatisch’. Het duidt op hetzelfde automatisme dat werkzaam is wanneer we op een aangeleerde wijze op een automaat reageren die ons een tekst laat zien als “Voer uw pincode in.” of die zegt “Waarmee kan ik u helpen?”. De woorden spreken ons onmiddellijk aan en wanneer ze in een passende situatie uitgesproken worden reageren we er automatisch op. Er is echter niemand die iets zegt. De technologie maakt gebruik van de gewoontes, de automatismen van de gebruiker, die op de woorden reageert alsof er iemand is die hem iets zegt of vraagt. De verantwoordelijkheid voor dit ‘gedrag’ ligt bij de ontwerper die van deze automatismen gebruik dan wel misbruik maakt.

We zien hier Humes filosofische scepsis aan het werk. Tekens en gewoontevorming suggereren causale verbanden tussen uitwendige verschijnselen en een inwendigheid. Maar die laatste bestaat slechts in de geest van de mens.

Nadat de kunstmatig denkende machines ons er op hebben gewezen dat denken meer is dan wat we door machines in de sfeer van de uitwendigheid kunnen laten doen, maakt deepfake ons ervan bewust dat ook onze waarneembare expressies (de gebaren) een uitwendig karakter hebben waarmee we ons niet volledig kunnen identificeren hoezeer we ons ook in die uitwendige beelden herkennen.

Pas wanneer de menselijke arbeid als een functioneren wordt gezien is het mogelijk deze in de sfeer van de uitwendigheid als economische activiteit, als pure nuttigheid, door machines te vervangen. Dat arbeid meer is dan alleen functioneren, daarvan worden we ons bewust zodra we buiten deze activiteit worden geplaatst en ons bestaansrecht en onze identiteit in andere bezigheden en verhoudingen moeten zoeken.

Zo kan deepfake, net als iedere vorm van kunst en techniek, ons helpen bewust te worden wat het betekent om mens te zijn en hoe we ons tot de uitwendige sfeer van synthetische media en technologie moeten verhouden.

Wellicht zal dat de belangrijkste bijvangst zijn van de discussie die de Europese Commissie met haar voorstel te weeg heeft gebracht.

Zijn robots morele agents? Vier standpunten

We kunnen vier standpunten onderscheiden ten aanzien van de kwestie over de morele status van robots. 1) Robots hebben nog niet een morele status zoals mensen maar in de toekomst mogelijk wel. 2) Robots hebben geen morele status en in de toekomst ook niet. 3) Mensen hebben geen morele status, robots wel. 4) Het hangt er van af hoe we een agent specificeren of deze als morele agent kan worden gezien.

Mijn standpunt komt het dichtst bij het laatste. Maar ik ben het niet eens met de invulling die Floridi hieraan geeft met zijn Levels of Abstraction, waarmee het ‘specificeren’ een kwestie is van programmeren. Het is niet mogelijk het verschil tussen de levende natuur en de niet-levende natuur te specificeren, omdat dat verschil zich niet laat specificeren. Evenzo is het niet mogelijk om door middel van een experiment het verschil aan te tonen (te meten) tussen een mens en een humanoid die de mens simuleert. Het verschil toont zich in de wijze waarop we met de levende en de niet-levende dingen omgaan. Daarin blijkt een impliciete intuïtie over de status van de technische dingen. Deze intuïtie is een vorm van kennis die niet gebaseerd is op theorie of op experimentele kennis, maar deze vormt zich door persoonlijke beleving en levenservaring.

De relational view

De relational view wordt door Gunkel getypeerd door in navolging van Levinas uit te gaan van de idee dat de morele status van de ander voorafgaat aan het zijn ervan. “The question of social and moral status does not necessarily depend on what the other is in its essence but on how she/he/it (and the pronoun that comes to be deployed in this situation is not immaterial) supervenes before us and how we decide, in “the face of the other”. (Gunkel, 2017).

De Andere Vraag

“How can and should we make a response in the face of robots” vraagt David Gunkel in The Other Question (2017). Deze robots zijn ontworpen om “socially intelligent” te zijn “in a human like way” zodat “interacting with it is like interacting with another person.” Voor Gunkel werpen deze robots de vraag op: “Can and should social robots have rights?”. Dit is “de andere vraag”, ten opzichte van de veel vaker gestelde vraag of intelligente machines, zoals sociale robots als morele agenten gezien moet worden, ‘zich gedragen’, en als zodanig beoordeeld moeten worden als agenten die verantwoordelijke zijn voor de gevolgen van hun activiteiten, die in zekere zin als ‘handelingen” of ‘daden’ gezien zouden moeten worden.

Volgens David Gunkel zouden sociale robots ‘met een gezicht’ rechten verleend moeten worden omdat het morele patiënten zijn. Die ontlenen ze volgens Gunkel aan het feit dat humanoïde robots met een gezicht je aan kunnen kijken wanneer je ze ontmoet. Volgens Emmanuel Levinas op wiens filosofie van de Ander Gunkel zich beroept, is dit de bron van de moraliteit. Gunkel ontleent zijn primaat van de ethiek boven de ontologie aan Levinas, maar deze heeft zelf nooit over de moraliteit van robots geschreven.

Het is niet de bij voorbaat al vastgestelde ontologische categorie van de ander op grond waarvan we beslissen voor een morele status ervan. We doen dat al implicit in de sociale relaties en sociale context waarin we de ander ontmoeten. Moraliteit “is no longer seen as being ‘intrinsic’ to the entity: instead it is seen as something that is ‘extrinsic’: it is attributed to entities within social relations and within a social context, stelt Marc Coeckelbergh.

De relational view wordt gezien als een nieuwe kijk op het probleem van de morele status van AI. Alsof een entiteit als machine zien geen uitdrukking zou zijn van een relatie. Wanneer Kate Darling stelt dat “even a simple calculator is better at doing math” (beter dan een mens), dan lijkt het alsof een calculator zonder de mens zou kunnen rekenen. Maar een calculator is slechts wat het is in relatie tot de mens die over het vermogen beschikt te rekenen. Zonder de mens is het slechts een ding dat onderworpen is aan de processen van de natuur. Je kunt mens en machine dus niet tegenover elkaar stellen om hun mogelijkheden met elkaar te vergelijken alsof het van elkaar onafhankelijke entiteiten zijn.

De historisch ontwikkeling van de programmeerbare automaat die parallel loopt met de ontwikkeling van de wiskunde en de zelfreflectie van het wiskundig denken in de vorm van de metamathematica (de wiskunde van het wiskundig redeneren) maakt de relatieve bestaanswijze van de mens en de machine duidelijk.

Wanneer we een mens als calculator zien en gebruiken dan realiseren we ons dat het slechts gaat om een rol die iemand vervult. De concrete mens gaat daar niet in op. Hij is veel meer dan calculator en het is vaak lastig te bepalen wat wel en wat niet valt onder deze noemer, dat is: wat mogen we van iemand als calculator verwachten? Een ambtenaar die slechts regels uitvoert is en zich niet verantwoordelijk voelt voor wat deze doet is niet wat we willen. Ze zijn gebruiksonvriendelijk. Je verwacht een begripvolle toepassing van de regels. Van een machine verwachten we dat deze werkt volgens de door ons vastgestelde regels. Daarin is ons begrip van de zaak, dat altijd voorlopig is, uitgedrukt.

Het wiskundig denken is gebonden aan de voorstelling, het afbeelden. Zonder tekens hebben wiskundige objecten geen identiteit, kan er niets bewezen, niets berekend worden. De machine is een wiskundig teken, een voorstelling, een afbeelding van het denken. Maar wat aan het afbeelden ontbreekt is het actieve denkende afbeeldende subject. De vorm van subject-zijn.

“Wat denkbaar is, is ook mogelijk.” luidt Stelling 3.02 van Wittgensteins Tractatus, waarbij denkbaar voor hem betekent voorstelbaar, uit te beelden. De machine is een voorstelling van het subject,maar het subject zelf, de logische vorm van het voorstellen, is het niet voorstelbare. Het valt buiten de sfeer van de voorstelling als haar impliciete vooronderstelling.

“Das Bild kann jede Wirklichkeit abbilden, deren Form es hat.” (2.171)

“Seine Form der Abbildung aber kann das Bild nicht abbilden; es weist sie auf.” (2.172)

Het lijkt erop dat de filosoof hier probeert de relatie tussen subject en inhoud, tussen afbeelder en het afgebeelde vanuit wiskundig perspectief te begrijpen. Het wiskundig kennen heeft het kenmerk en onderscheidt zich van het filosofische kennen dat het gekende in de wiskundige ken-relatie gedacht wordt als volstrekt onderscheiden van het kennend subject en de activiteit van het kennen. De filosoof

De filosofie onderkent dat alle werkelijkheid moet worden begrepen in relatie tot de menselijke geest. Maar tegelijk moet de filosofie toegeven dat deze werkelijkheid een zelfstandigheid heeft tegenover de geest.

Bronnen

Darling, Kate (2016). Extending Legal Protections to Social Robots: The Effects of Anthropomorphism, Empathy, and Violent Behavior Towards Robotic Objects, in: ROBOT LAW, eds. M. Froomkin, R. Calo, I. Kerr, Edward Elgar (2016).

Floridi, Luciano (2014). Informatie. Elementaire deeltjes 11. Amsterdam University Press B.V., Amsterdam, 2014. Vertaling van Information: a very short introduction uit 2010.

Gellers, Joshua C. (2021). Rights for Robots – Artificial Intelligence, Animal and Environmental Law. Taylor & Francis.

Gunkel, David J. (2012). The machine question: Critical perspectives on AI,
robots, and ethics. Cambridge: MIT Press.

Gunkel, David J. (2017). The Other Question: Can and Should Robots have Rights? In: Ethics and Information Technology, 2017.

Hertz, Heinrich (1894). Die Prinzipien der Mechanik in neuen Zusammenhange dargestellt. Mit einen Vorworte von H. von Helmholtz

Sætra, Henrik Skaug (2021). “Confounding Complexity of Machine Action: A Hobbesian Account of Machine Responsibility.” IJT vol.12, no.1 2021: pp.87-100.

Schröder, Wolfgang M. (2021). Robots and Rights: Reviewing Recent Positions in Legal Philosophy and Ethics. In: J. von Braun et al. (eds.), Robotics, AI, and Humanity, 2021.

Stone, Christoffer, D. (1972). Should trees have standing? – towards legal rights for natural objects. Southern California Law Review 45 (1972): 450-501.

Sullins, John P. (2006). When is a robot a moral agent? Internat. Rev. Information Ethics, Vol. 6, 12, 2006.

Wootton, David (2015). The Invention of Science. A new history of the scientific revolution. Penguin Book, 2015.

Published by

admin

Rieks op den Akker was onderzoeker en docent kunstmatige intelligentie, wiskunde en informatica aan de Universiteit Twente. Hij is gepensioneerd.

Leave a Reply