Over de moraal van Kopen zonder Kijken – is GoBoony een persoon of een machine?

Verschillende stellen geven het zoeken, kopen en verbouwen van hun nieuwe woning uit handen. TV-presentator Martijn Krabbé gaat met zijn team op zoek naar de perfecte woning, die de nieuwe eigenaar pas mag bezichtigen wanneer de koop en verbouwing achter de rug is.

Het is de formule van het TV-spel-programma Kopen zonder Kijken. Wie koopt er nu een huis zonder eerst te gaan kijken? Vroeg ik me af toen ik ervan hoorde. Het is weliswaar een spel-programma maar wel een serieus spelprogramma. Althans dat is hoe het gepresenteerd wordt. Voor de tv-producent geldt: hoe gekker hoe beter. Als het maar veel kijkers trekt. En hoe gek is kopen van een huis zonder kijken nou helemaal in een wereld waarin we van alles online kopen zonder eerst te kijken wat we kopen. Zaken die we alleen van de presentatie op markplaats kennen, van de teksten en de plaatjes. Maar hoe betrouwbaar zijn die? Regelmatig worden goedgelovige kopers afgezet door niet zo goed bedoelende aanbieders. Zo kopen of huren we soms zaken die niet eens blijken te bestaan.

Welke zijn de regels die gelden bij het online via mediaplatforms aanbieden en kopen of huren? Hoe zit het met de moraal op de online markt? In dit stukje wil ik onderzoeken hoe de door technologie beheerste online media-markt uitnodigt vooral doelgericht en functioneel te handelen waarbij de moraliteit al gauw het loodje legt. En vervolgens komt de vraag aan de orde wat moraliteit eigenlijk inhoudt. Bij het beantwoorden van de vraag naar de verhouding tussen moralitiet en techniek is het van groot belang techniek en het gebruik van techniek goed te onderschieden. De filosoof en ethicus van de techniek raken betrokken in een politiek machtsspel.

Onlangs wilden we een camper huren via GoBoony, een online matching site, waar verhuurders en huurders elkaar online kunnen ‘ontmoeten’. GoBoony bepaalt de spelregels en die moeten ervoor zorgen dat er geen contact tussen huurder en verhuurder buiten het platform om mogelijk is. Zo wordt het uitwisselen van telefoonnummers of email-adres onmogelijk gemaakt. Daar kwamen we achter toen we op verzoek van de verhuurder van een door ons uitgezochte camper ons telefoonummer in de chatbox van het platform intikten. Dat nummer verscheen zowel op ons scherm als op dat van de huurder als een rijtje ****. Zo ook met het emailadres. Pas wanneer er een contract getekend is en de betaling is gedaan is het mogelijk gegevens uit te wisselen die het mogelijk maken dat de huurder kan komen kijken wat hij huurt. En ook kan de verhuurder niet eerder een indruk krijgen aan wie hij zijn camper verhuurd. Dat is het businessmodel van het platform. GoBoony motiveert de regels als onderdeel van hun policy die erop gericht is beide partijen te beschermen en verwijst naar juridische kwesties in geval dat er later onenigheid ontstaat. Door uitsluitend via het chatkanaal van het medium te communiceren kan er achteraf geen trammelant komen over wat er is afgesproken. De klant wil wel betalen voor online diensten, dus presenteert de online onderneming zich als dienstbaar aan de klant. Alles ten gunste van de gebruiker van het medium. Maar wij vonden het maar niks en onze verhuurder kennelijk ook niet.

We realiseerden ons dat dat platform een computerprogramma is dat de hele handel regelt. Een algoritme checked of de ingetikte teksten een emailadres bevat. Dat is eenvoudig te omzeilen, dachten we, en we vervingen het @-sign door at, zoals vaak gebeurt als mensen hun e-mail adres willen verbergen voor softwarerobots. Maar de computer trapte er niet in. Uiteindelijk is het gelukt om door de muur van het medium heen te breken en de telefoonnummers uit te wisselen, gewoon door ze uit te spellen. We zijn nog net iets slimmer dan de computer. Beide partijen waren het er over eens dat GoBoony het te bont maakt door het communicatiekanaal dat ze aanbiedt zo te versmallen dat het niet mogelijk is om tot een voor beide partijen verantwoorde overeenkomst te komen. Zo praatten we het doorbreken van de regels goed. Je hoeft je niet neer te leggen bij regels die niet rechtvaardig zijn.

Dergelijk gedrag is aan de orde van de dag. We handelen primair doelgericht vanuit ons eigen belang en lappen daarbij de moraal aan onze laars. Het is de afstandelijke techniek die tot dit gedrag uitnodigt. De vraag is immers of we tegenover een computer een morele verplichting hebben.

Hoe vaak komt het niet voor dat je online een contract aangaat en nog even een paar vinkjes moet zetten je verder kunt en de zaak afgerond is? Dan staat er:

⊡ Ik heb de voorwaarden gelezen en ga er mee akkoord.

of

⊡ De bovenstaande vragen heb ik naar waarheid beantwoord.

Die voorwaarden, dat zijn de beruchte ‘kleine lettertjes’ van het contract. Ze beslaan soms vele pagina’s onbegrijpelijke tekst met veel juridisch beladen termen. Wie ploegt daar doorheen voordat hij het hokje aanvinkt?

Het aanvinken van de tekst is het bevestigen van wat de tekst beweerd. Maar zo werkt het niet. Voor de normale gebruiker is het wat hem gevraagd wordt te zeggen om de zaak af te ronden, zodat de koop of huur-overeenkomst eindelijk bevestigd kan worden.

Zo zijn er twee wijzen van taalgebruik. De eerste ‘eerlijke’ manier houdt in dat je werkelijk bedoelt en meent wat de woorden zeggen. De tweede is dat het uitspreken van de woorden de sleutel is die toegang biedt tot het doel dat je beoogt. Taal wordt dan zuiver functioneel gebruikt, als gereedschap. Er is daarin geen sprake van ‘de waarheid spreken’. Taalgebruik heeft dan niets te maken met het verwoorden van (onze verhouding tot) de werkelijkheid.

Mijn stelling is nu dat het onpersoonlijke online handelen een functionele houding ten opzichte van ons taalgedrag en gedrag in het algemeen uitnodigt. De wijze waarop tekstgeneratieprogramma’s als ChatGPT de taal zien is puur functioneel. Er is geen bedoeling of verwoording van hoe iemand zijn gevoelens verwoord. Het gaat zuiver om het genereren van een tekst die past in een lopende dialoog op grond van statistieken van vergelijkbare dialogen.

Die functionele opvatting van ons taalgedrag wordt vaak toegewezen aan de filosoof Ludwig Wittgenstein. Hij beweerde dat de betekenis van de woorden bepaald wordt door hun gebruik. Dat gebruik is altijd gebruik binnen een bepaald taalspel, dat onderdeel is van een bepaalde praktijk, zoals het huren van een camper. Binnen die praktijk gelden regels die het gebruik van de taal bepalen en daarmee de betekenis. Dat het in de echte wereld niet om een spelletje gaat zoals bij het programma Kopen zonder Kijken, dat wordt bevestigd door de juridische kwesties die volgen als er iets mis gaat. Dan wordt het serieus. Het gaat er dan om of de spelregels wel gevolgd zijn. En dat is altijd een machtsspel waarin de machtigste meestal gelijk heeft.

GoBoony, Google, Amazon, RentaCar hebben als ondernemingen meer macht dan de individuele burger. En dat geldt ook voor een overheid die de burger als klant behandelt.

Maar wat heeft dit omgaan met de regels met moraliteit te maken? Waarom zouden we ons aan gedragsregels moeten houden? Waarom zouden we moeten bedoelen wat we zeggen? Dat heeft alles te maken met het respecteren van de ander en van je zelf. Uiteindelijk gaat moraliteit om de kwaliteit van de omgang met de ander, van persoon tot persoon.

Om moreel gedrag in de communicatie met computersystemen te bevorderen wordt er niet voor niets vaak voor gekozen deze systemen menselijke eigenschappen te geven. De online bemiddelaar presenteert ‘zich’ als een persoon met wie je in je eigen taal kunt praten. En inderdaad, mensen hebben de neiging deze virtuele figuren als een ander te zien. Techniekfilosofen en ethici (zoals David Gunkel en Mark Coeckelbergh) breken zich het hoofd over de kwestie of een sociale robot een persoon is of een ding en of we de robot rechten moeten toekennen. Anderen, zoals bijvoorbeeld Abebe Birhane en Jelle van Dijk (zie Birhane en Van Dijk 2020/2021) zijn van oordeel dat een robot niet iets is waar je een morele status aan kunt verlenen. Een robot of online chatbot, zoals een programma als GoBoony, is een softwareprogramma en wordt door mensen gebruikt als tool. Ook een computer, hoe ‘intelligent’ ook, is een stuk gereedschap.

De vraag of we ons moreel bezwaard moeten voelen wanneer we de spelregels van GoBoony omzeilen komt op zodra we ons ervan bewust worden dat we aan regels morrelen die we zien als acceptabele regels voor de omgang met een ander persoon. Bij onpersoonlijke van de interactie met een computer hoort dat we ons zelf en de ander niet als persoon zien, en van onze interaktie een spelletje van maken met een door het spel bepaalde inzet. We gedragen ons dan technisch en handelen zuiver functioneel. De woorden die we spreken zeggen niet wat we werkelijk vinden maar zijn tools die we gebruiken om een gewenst effect te bereiken.

Hoe intelligenter de machine wordt des te meer nodigen deze uit tot functioneel gedrag dat de moraliteit aan de laars lapt. Het gebruiksonvriendelijke van de techniek is dat de ‘intelligente’ machine geen verantwoordelijkheid kent. Deze kan niet voor de rechter worden gesleept om zich te verantwoorden. Dat kan alleen de mens die erachter zit, die de regels heeft opgesteld en die de machine als ‘autonoom’ gereedschap ziet en het veld instuurt om met mensen te onderhandelen.

Filosofie van Moraliteit en Techniek

Wanneer we nadenken over de relatie tussen moraliteit en techniek, dan is het van belang een helder onderscheid te maken tussen techniek enerzijds en het gebruik van techniek in de praktijk van het leven anderzijds. Sommige denkers over techniek onderscheiden het technische en het economisch aspect van ons handelen. Zoals Maarten Coolen in zijn thesis De Machine Voorbij. Maar veel denkers over techniek onderscheiden deze twee niet. Dat komt erop neer dat men het technische als zodanig niet onderkend en het bij techniek over het gebruik van techniek heeft. Dat heeft tot gevolg dat men enerzijds het gebruik van techniek zelf als iets technisch beschouwt, of anderzijds het technisch instrument, datgene waarvan gerbuik wordt gemaakt in de praktijk, zelf eigenschappen toedicht die aan het gebruik ervan en aan de gebruiker ervan toekomen. Dat is op zich een begrijpelijke gang van zaken omdat de idee van de techniek voortkomt uit het gebruik van de dingen in het praktische handelen. Zoals de mathematiek, de formele wetenschap van de techniek, voortkomt uit de waarneming van de werkelijkheid komt de techniek voort uit de reflectie op het omgaan met de dingen, volgens hun natuur. In het gebruik van de techniek worden deze aan de werkelijkheid ontsproten ontwerpen weer teruggebracht in de praktijk van het handelen.

Het technische op zichzelf (als technisch: dat wil zeggen de abstracte idee van techniek, de abstracte verstandsvorm of vinding) als combinatie van krachten van de natuur ten behoeve van een bepaalde werking, is iets volstrekt amoreels. Zij komt voort uit een mathematische en mathematiserende verhouding tot de natuur die afziet van de eigen kwaliteit der dingen en gericht is op het kwantitatieve, het meetbare, telbare, in het algemeen het structureerbare van de werkelijkheid. De theoretische wiskunde gaat over structuren die het als zelfstandige objecten beschouwt. Het mathematisme is de verabsolutering van deze denkhouding waarin het zijnde gereduceerd wordt tot structuur. Ten aanzien van ons gedrag overheerst in deze denkhouding het functioneren, het doelmatige. Het mathematische en technische ziet af van de eigen waarde der natuur om deze een door de mens bedachte maat (model) op te leggen. Het technische produkt is dan ook beschikbaar voor algemeen gebruik in vele concrete gebruiksomstandigheden. Bovendien heeft het gebruik altijd neveneffecten ten gevolge van het feit dat het technische idee voortkomt uit een abstractie van de werkelijkheid, waarin van sommige aspecten wordt afgezien. Deze abstractie is een typisch kenmerk van de experimentele hypothetische mathematische natuurwetenschap. Een technische werking is keerzijde van een geslaagd wetenschappelijk experiment dat als resultaat kennis oplevert over de relatie tussen bepaalde condities en de werking van de natuur volgens natuurwetmatigheden die zich in mathematische modellen laten uitdrukken.

De bedoelde verwarring van het technische op zich enerzijds en het gebruik van techniek anderzijds ten gevolge van het niet helder onderscheiden van deze twee leidt er toe dat denkers over de relatie tussen moraliteit en techniek de neiging hebben het technische instrument opgevat als zelfstandige werkelijkheid als morele agent op te vatten. Men ziet het instrument als het ware als gebruiker van techniek, zolas de mens gebruiker van techniek is. Deze opvatting is begrijpelijk omdat de technsiche mens ernaar streeft om de natuurkrachten zodanig te structureren en te combineren dat deze steeds meer zelfstandig een gewenste werking laat zien. In de vorm van de programmeerbare ‘intelligente’ machine werkt de machine volgens een ontwerp dat als ontwerp in de formules van de programmeertaal is uitgedrukt. Het zijn deze formele regels die in tekens uitgedrukt leiden tot een werking die wij als ontwerper zien als de bedoelde betekenis van het ontwerp uitgedrukt in het programma. Dat is het nieuwe van de informatieverwerkende programmeerbare machine ten opzichte van het eerder stadium in de ontwikkeling van de techniek, dat de machine weliswaar ook al realisatie is van een ingenieus ontwerp, maar dat dit ontwerp daar nog niet als ontwerp in de machine is geimplementeerd. In de informaat komen de wiskundige tekens en de wiskundige modellen tot werking.

Het is nu begrijpelijk dat er grote verwarring heerst over de ‘Machine Question’ : is de robot een ding of een persoon? Waarbij ding en instrument dan weer onderscheiden, dan weer geïdentificeerd worden. Evenzo vergaat het ‘natuurlijk persoon’ en rechtspersoon.

De twee perspectieven die we in het gebruik van de techniek die zich als intelligent zelfstandig werkend instrument presenteert en ons uitnodigt er gebruik van te maken zijn onverenigbaar. Moraliteit is geen eigenschap die aan het technisch als zodanig toekomt (het moet er als het ware van buiten af aan worden toegekend, zie Coeckelbergh). Het technisch is als zodanig volkstrekt amoreel. De moraliteit zit in het gebruik van de techniek door de mens. Zodra we dit gebruik zien als een relatie met een persoon is de moralitiet in het geding. Maar wie met pek omgaat wordt ermee besmet. De mens kan zich zelf als technisch functionerend onderdeel van een interactief systeem beschouwen en in interaktie met een ‘intelligente’ machine zuiver functioneel optreden en een ‘amoreel’ spel meespelen waarin het zijn eigen doelen tracht te verwerkelijken.

Het is dan ook begrijpelijk dat Gunkel in zijn beschouwingen over de Machine Question tot de conclusie komt dat het uiteindelijk neerkomt op een machtsstrijd tussen betrokken partijen. Wie bepaalt de regels van het spel? Wie bepaalt welke partij (de eigenaar van de softwareagent of de gebruiker) gerechtigd is de ander als een abstract subject, functionerend in de contekst van een business-model, op te vatten? Let wel: GoBoony is ook een business-model waarin de gebruiker als een abstract subject wordt gezien dat in hun spelmodel een bepaalde rol heeft. En wie bepaalt of men met de software agent op morele wijze moet omgaan; alsof het een persoon is, dat is: een entiteit die je in zijn waarde laat en niet als instrument mag gebruiken (Kant).

Is GoBoony een persoon of een software agent?

De opvatting dat de intelligente machine (AI) een (rechts)persoon is wordt terecht door velen gezien als poging van de betrokkenen bij het gebruik van de machine te ontkomen aan de verantwoording voor de rechter. Er zijn legale constructies die rechtspersoon zijn, zoals een onderneming. Ook kan een natuurlijke entitiet als rechtspersoon worden gezien. Dan gaat het om de bescherming van een stuk natuur, zoals de Waddenzee. We beschermen bepaalde landschappen vanwege hun uitzonderlijke waarde voor mens en natuur. Het zou goed zijn de aarde, het leven, de natuur, als zo’n rechtspersoon te zien. Het rechtssysteem vormt zo een tegenwicht tegenover de mathematisch technische houding die van de eigen waarde van de natuur afziet en deze als beschikbare gebruikswaarde ziet. Maar hoe ver reikt de macht van het recht? Uiteindelijk staat de verhouding tussen macht en recht op het spel.

Een machine is iets dat geen bewustzijn heeft, het weet niet wat het doet, het kent geen verantwoordelijkheidsgevoel en als het iets slims lijkt te zeggen dan is dat omdat wij in de woorden die het genereert iets zinnigs lezen in de context van het gebruik, een context die voor de machine niets anders is dan een conditie voor de natuurnoodzakelijke werking die de machine is.

Intersubjectiviteit is een principe. Je kunt van alles vanuit dit principe beschouwen. Het kind ziet in een knuffelbeer een subject. De mens ziet in de machine een subject. Het gaat hier echter om een pseudo-subjectiviteit, een niet-reflexieve vorm. De machine denkt niet. Net zo min als de appel die uit de boom valt uitrekent met welke snelheid deze moet vallen. Die appel kent de wetten van Newton niet zoals wij die kennen. Het principe is niet verenigbaar en niet reduceerbaar met het wetenschappelijk kennen dat de werkelijkheid als wetmatig werkend systeem ziet.

De Nederlandse filosoof Jan Hollak heeft in verschillende artikelen zijn gedachten over het fenomeen van de ‘denkende machine’ en de ‘bewuste machine’ met zijn lezers gedeeld. In zijn beroemde inaugurele rede Van Causa sui tot Automatie plaatst hij de volgende voetnoot.

“Wanneer hier voortdurend in verband met mechanismen van ‘reflectie’, ‘zelfreflectie’, etc. sprake is dan is daarmee vanzelfsprekend nooit het subjectieve act-leven van het menselijk denken bedoeld (machines hebben geen bewustzijn), maar steeds slechts zijn intentioneel correlaat” (In: Hollak en Platvoet, voetnoot op p. 185)

Zie voor uitleg mijn blog Over David Chalmers ‘hard problem’ en de eenheid van de geest.

Het typische van techniek is dat het medieert. Dat is waar techniekfilosoof Peter-Paul Verbeek nadruk op legt (in navolging van o.a. Don Ihde, zie bijvoorbeeld Verbeeks What Things Do) . Techniek is in het gebruik een middel dat tussen mens en gebruik in staat. De techniekfilosofie van Verbeek gaat over concrete toepassingen, vooral medische toepassingen en vraagt wat de mogelijkheden, die nieuwe technologie biedt, doet met hoe we in de wereld staan. Die mogelijkheden regelen ons gedrag. Dat is de macht van de techniek. In die zin is het technische ding een morele agent.

Een belangrijk ‘gevolg’ van de AI is dat we onszelf als technisch informatieverwerkend systeem zijn gaan zien, een onderdeel van een totaal systeem waarin ook software agenten meespelen. Deze de-subjectivering van de mens is kenmerkend voor de technische cultuur. De morele kwestie treedt pas op als we ons realiseren dat we niet in die technische relatie opgaan maar er boven of tegenover staan, en dat we ons als verantwoordelijke mens verhouden tot onszelf als technische mens. We hebben techniek nodig maar we willen wel moreel subject zijn dat zijn verantwoordelijkheid kan nemen voor zijn handelen. Techniek die dat in de weg staat moeten we afwijzen.

Referenties

Birhane, Abebe and Jelle van Dijk (2020). Robot Rights? Let’s talk about human welfare instead. In: AIES ‘20: Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 207–213. New York: ACM. https://doi.org/10.1145/3375627.3375855

“Our starting point is not to deny robots ‘rights’, but to deny that robots are the kinds of beings that could be granted or denied rights.”

Birhane, Abeba, Jelle van Dijk, and Frank Pasquale (2021). Debunking Robot Rights Metaphysically, Ethically, and Legally. Paper presented at We Robot, University of Miami School of Law, Miami, FL, September 23–25.

Mark Coeckelbergh (2012), Growing moral Relations: critique of moral status ascription. Palgrave MacMillan, 2012.

Coeckelbergh wijst erop dat de moraliteit een aspect is van de relatie die we met de dingen hebben. Deze ‘dynamische morele relatie’ groeit met het groeien van de relatie tussen subjecten.

Gunkel, David J. (2007). Thinking otherwise – philosophy, communication, technology. Purdue University Press / West Lafayette, Indiana, 2007.

“The Machine Question” asks about the moral status of those other forms of otherness, most notably the animal and the machine, which have been, even in Levinas’s own work, systematically excluded from the rank and file of ethics.

Gunkel, David J. (2023). Person, Thing, Robot – A Moral and Legal Ontology for the 21st Century and Beyond, MIT Press, Open acces, September 2023.

“Ultimately, then, this is not really about robots, AI systems, and other artifacts. It is about us. It is about the moral and legal institutions that we have fabricated to make sense of Things.”

Hollak, Jan en Wim Platvoet (red.) (2010). Denken als bestaan: het werk van Jan Hollak. Uitgeverij DAMON, Budel, 2010. In deze bundel het transcript van de opname van het Afscheidscollege over de hypothetische samenleving door Jan Hollak gehouden in Nijmegen op 21 februari 1986. Ook de inaugurele rede Van Causa sui tot Automatie is hierin opgenomen.

Published by

admin

Rieks op den Akker was onderzoeker en docent kunstmatige intelligentie, wiskunde en informatica aan de Universiteit Twente. Hij is gepensioneerd.

Leave a Reply