David J. Gunkel is een Amerikaanse academicus en Presidential Teaching Professor of Communication Studies aan de Northern Illinois University. Hij geeft cursussen in webdesign en programmeren, informatie- en communicatietechnologie en cybercultuur.
Gunkel heeft een indrukwekkende lijst boeken op zijn naam staan, waaronder An Introduction to Communication and Artificial Intelligence, Robot Rights, The Machine Question, Of Remixology, maar ook (samen met Paul A. Taylor) Heidegger and the media.
Onlangs verscheen bij MIT Press Person, Thing, Robot – a moral and ethical ontology for the 21st century and beyond. De ondertitel getuigt typisch van de moderniteit van Gunkels project. In de moderniteit is wetenschap een onderzoekproject gericht op het plannen en vastleggen van de toekomst. Is het een goed idee de moraal voor de toekomst te willen vastleggen?
Gunkel is een bevlogen spreker en actief op X. Ik ben bekend geraakt met zijn werk via Twitter.
Een centraal thema in zijn werk is de kwestie of robots, intelligente sociale machines, als morele ‘agenten’ beschouwd moeten worden en of deze ook rechten in juridische zin verleend moeten worden, zoals mensen, dieren, rivieren, en organisaties die ook hebben. Gunkel claimt dat het fenomeen AI, en sociale robots in het bijzonder, onze denkkaders overhoop haalt. Waar moeten we de robot ontologisch plaatsen? Is de robot een ding of een persoon? Zijn antwoord is: de robot past daar niet in. “Robots are a queer sort of things. They deconstruct the existing logical order that differentiates persons from things”. We moeten de oude metafysica heroverdenken. Terug naar Plato.
De term die Gunkel voor dit project gebruikt is deconstructie. Het begrip staat centraal in zijn boek Deconstruction. De term komt van Jacques Derrida, naast Emmanuel Levinas, één van de twee Franse denkers aan wiens ideeën Gunkel zijn gedachten meet. Gunkels deconstructie project bestaat uit twee fasen, een analytische fase en een synthetische fase, en je zou kunnen stellen dat hij in de eerste vooral met Derrida in dialoog is en in de tweede met het gedachtengoed van Levinas, waarin het ethische (de Ander) vooraf gaat aan de ontologie (het Zijn zelf). De notie ‘face’ (‘gelaat’) speelt een sleutelrol. Hier wordt door hem een link gelegd met de technische ‘interface’ van mens en machine: de (programmeer)taal is die interface, maar ook met het gezicht dat we humanoïde robots geven zodat ze bijvoorbeeld kijkgedrag simuleren en de gebruiker de indruk geven dat de robot hem aankijkt.
De ethische kwestie zou verwoord kunnen worden als: heeft de machine een gezicht? Spreekt de robot ons in morele zin aan? Het is uit human-computer-interaction onderzoek bekend dat de gebruiker de neiging heeft in interakties de machine als ‘sociale agent’ te behandelen. Het verlenen van allerlei antropomorfe kenmerken (een gezicht) versterkt deze neiging. Gunkel gebruikt dit als één van de redenen waarom de vraag naar robotrechten serieus moet worden genomen. Een andere reden is dat er al robots zijn die deelnemen aan het verkeer. Denk aan autonome auto’s, service en delivery robots, maar ook aan onbemande wapenssystemen zoals drones die ‘zelf’ lijken te beslissen waar en wanneer ze een bom gooien. Maar kunnen ‘ze’ dat eigenlijk wel? In welke zin is hier sprake van een ‘zelf’? Is de taal hier niet erg misleidend? De theoretische vraag is of kunstmatige intelligentie wel mogelijk is.
De technici leren de robot niet onze taal te spreken en verstaan met als doel de gebruiker te misleiden en te laten denken dat de robot één van ons is, maar omdat het de werking, de interaktie, het gebruiksgemak, ten goede komt. De technicus beheerst de werkelijkheid met als doel deze zodanig te manipuleren dat het functioneel wordt voor de gebruiker. Het is onderdeel van de techniek dat de implementatie, de eigenlijke technische werking van de machine, voor de gebruiker verborgen is. We hoeven als gebruiker niet te weten hoe een automotor inelkaar zit en werkt. Als deze maar werkt. En dat geldt ook voor de sociale robot. De techniek moet vanzelf werken.
De gebruiksonvriendelijkheid van de AI en de robot zit hem er daarentegen in dat de robot niet ter verantwoording kan worden geroepen, wanneer er iets mis gaat. Dat is het praktische probleem van de AI. Kunnen we het ding aan zichzelf overlaten? Het is daarom spannend te horen wat Gunkel hierover te zeggen heeft. Kan de robot ooit één van ons worden en voor het gerecht gedaagd worden? Ik kom hier later op terug.
Gedeelde interesse
Met Gunkel deel ik de interesse in het fenomeen van de kunstmatige intelligentie en de taal. Het onderwerp van de technologie, haar historische ontwikkeling als onderdeel van de antropologie, houdt me vanaf mijn studie wiskunde en informatica in Twente bezig. Ik ben daarin vooral geïnspireerd door mijn afstudeerdocent, de logicus en filosoof Louk Fleischhacker. Bij hem volgde ik colleges Mathematische Logica, Wijsbegeerte van het Wiskundige Denken en de Informatietechnolgie. Ik maakte via deze colleges kennis met het werk van de grote filosofen, Aristoteles, Hegel, Frege. Wij bestudeerden samen het werk van Hegel en hij bracht mij in contact met het werk van de filosoof Jan Hollak: Hegel, Marx en de Cybernetica (1963), Van Causa sui tot Automatie (1966). Deze inzichten zijn nog steeds van grote waarde voor het debat over de automatie. In Amsterdam deed ik mee aan de studiegroep Antropologie van de Technologie onder leiding van Maarten Coolen, die op dit onderwerp promoveerde. Maarten is vooral geinteresseerd in wat de mens kan leren van de nieuwste fase in de ontwikkeling van de technologie, die hij in navolging van Jan Hollak als de uitwendige objectivatie van de zelfreflectie van de mens als autonoom verstandelijke denkend wezen beschouwd, de fysische realisatie van het moderne mensbeeld. Sommige mensen zeggen dat we eigenschappen van de mens op de robot, op de AI, ‘projecteren‘ maar ‘objectivatie’ in de zin van Coolen is veel meer dan dat. Het gaat niet om het simuleren van bepaalde menselijke gedragingen, het gaat erom dat in de automatisering een heel zelfbeeld van de mens, zijn verhouding tot zichzelf en de natuur, wordt geobjectiveerd. Dat is ook het metafysische aan de moderne wetenschappelijke technologie waar Heidegger op wijst.
In de techniek krijgen menselijke functies (functies die we als arbeid uitoefenen) een fysieke zelfstandigheid. De ontwikkeling van het functie-begrip in de wiskunde en de logica heeft een lange geschiedenis die begint bij Leibnitz. Een functie is eerst nog een concrete veranderlijke grootheid, zoals de lengte van een ijzeren staaf. De functie is dan uitdrukking van een natuurkundige wet die de relatie tussen temperatuur en lengte uitdrukt. Bij Frege wordt het begrip uitgedrukt in een oordeel waarin we een eigenschap ‘toepassen’ op een subject, een functie. De eigenschap rood zijn wordt toegepast op deze roos uitgedrukt in de propositie ‘deze rood is rood’ die de waarheidswaarde (ook opgevat als een mathematisch object) waar of onwaar heeft. Nog een stap verder worden deze functies zelfstandige objecten, die staan voor regels die een invoer afbeelden op een uitvoer, het resultaat van de toepassing ervan op de invoer. Zo worden de regels van het denken gefunctionaliseerd. Daarmee is het mogelijk ‘logische’ schakelingen te maken, de bouwstenen van complexe logische formules. Denken is rekenen geworden en kan door rekenmachines worden uitgevoerd.
Eind 1978 studeerde ik af bij de vakgroep Theoretische Informatica van de Technische Hogeschool Twente (nu University of Twente) op de formule Z(Z) = Z(Z), waarbij Z = λx.x(x) de lamda term is die staat voor de zelfapplicatie functie.
Die Z(Z) links van het =-teken moet je lezen als een applicatie (of een opdracht daartoe) van de zelfapplicatiefunctie Z op zichzelf als argument. Die Z(Z) rechts is het resultaat van deze bewerking. Het is dus een ‘dynamische gelijkheid’. In principe niet veel anders dan meer bekende ‘gelijkheden’ als 4/8 = 1/2 of 5 + 7 = 12. Wat links staat is een (opdracht tot een) bewerking, maar ook al aanduiding van het resultaat. Wat rechts staat is het resultaat nog een keer, maar in een normaalvorm. In Z(Z)=Z(Z) gaat de bewerking dus over in de bewerking zelf, ad infinitum. Zoals een onbelaste motor in zichzelf blijft draaien. Volstrekt nutteloos, maar zelfapplicatie kom je overal tegen waar mensen proberen op mathematische wijze automatie of het leven te begrijpen. In de programmeerbare machine werken de wiskundige tekens; hun betekenissen worden daarin gerealiseerd.
ChatGPT probeert onze taal te normaliseren door de historische verwoording van ideëen als norm aan de lezer op te leggen.
Mijn afstudeerproject ging dus over ‘de zelfapplicatie van de zelfapplicatie als mathematische uitdrukking van de automatie als uitwendige objectivatie van de zelfreflectie van de verstandsreflectie’.
Ik werkte als docent wis- en natuurkunde en promoveerde op een onderwerp uit de theoretische informatica (compilerbouw). Daarna werkte ik als onderzoeker en docent op het gebied van de AI en de (Bayesiaanse) statistiek, waar ik het werk van de fysicus E.T. Jaynes (Probability Theory: the logic of science) en van Judea Pearl (Causality, The Book of Why) leerde kennen. Mijn colleges heetten Conversational Agents en Formele Analyse van de Natuurlijke Taal, waarover Louk eens opmerkte: “Als je de taal wilt formaliseren, moet je de hele mens formaliseren, dus dan ben je nog even bezig.”. We weten inmiddels hoe waar dit is. De conversational agents werden al gauw ’embodied conversational agents’ en robots kregen steeds meer menselijke trekken, nadat ook de niet-verbale gebaren werden ‘geformaliseerd’ (zie het ‘facework’ van de socioloog Erving Goffman). We bouwden virtuele verdachten die de rol van echte acteurs zouden overnemen in serious games voor politie-trainingen (Bruijnes 2016). We zijn echter nog niet klaar met ‘de constructie van de kunstmatige mens’.
Wanneer we met ChatGPT een gesprek voeren moeten we ‘de persoon achter het gordijn’ er nog bij denken. Ik werkte in diverse Europese onderzoekprojecten die alle als onderwerp hadden de interactie met, het gebruik en de interface van mens en intelligente machines. We ontwikkelden en evalueerden robots voor ouderenzorg. In het laatste project ontwikkelden en testen we een serious virtual reality game voor kinderen met diabetes om ze spelenderwijs te leren hun dagelijkse leven te managen.
De notie spel en het onderscheid met arbeid is van belang voor de discussie over de zelfstandigheid van technologie en robot rechten in het bijzonder. Terwijl het primaire doel van de arbeid buiten de arbeid als werkzaamheid ligt, is het doel van het spel gelegen in het spel zelf. Dat geldt ook nog voor sport. Zodra de sport primair wordt beoefend ter vermaak van anderen wordt het onderdeel van de economie. Zo zien we dat de commercie en de media wat oorspronkelijk als spel begon, hebben veranderd in arbeid, waarin meester-knecht-verhoudingen werken, zoals in alle arbeidverhoudingen. De voetbalsters die het voetbal als spelletje en sport begonnen, worden meer en meer beroepsvoetballers die hun voetbaltalenten dienstbaar stellen aan de samenleving, vertegenwoordigd door de voetbalbonden en de supporters. De voetballer wordt onderdeel van een economisch mechanisme, met haar eigen wetten. Het verschil met de robot is natuurlijk dat de mens geen machine is en vroeg of laat de vraag stelt naar de zin van dit mechanisme, en zijn of haar eigen rol in het geheel. (Meestal gebeurt dit als de lichamelijkheid van de sport zich aan de speler opdringt in de vorm van blessureleed.) Dat doet de robot niet, omdat deze geen eigenheid, geen lichaam, heeft die boven het functioneren uitstijgt en daar op reflecteert.
Louk promoveerde op de kwantiteit bij Aristoteles en Hegel die hij op een heel eigen manier met elkaar probeert te verzoenen. Hij schreef daarna zijn boek Beyond Structure. Fleischhacker wijst daarin op de neiging van filosofen tot mathematisme, de opvatting dat structureerbaarheid het wezen van de waarneembare werkelijkheid is en dat iets kennen betekent dat je het een structuur kunt geven en er een wiskundige model van kunt maken.
“The enterprise, of which this book is a report, consists of an attempt towards a systematic ‘deconstruction’ of mathematism.” Dit schrijft Louk Fleischhacker in het inleidende hoofdstuk van zijn Beyond Structure (1995) over de macht, en de grenzen van het mathematische denken.
Deconstructie
Beyond Structure is een poging tot ‘systematische deconstructie van het mathematisme’, waarbij Fleischhacker er op wijst dat deconstructie zelf ook een metafysische positie inhoudt, die niet impliciet mag blijven.
In hun artikel ‘ChatGPT: Deconstructing the Debate and Moving It Forward‘ proberen de auteurs Marc Coeckelbergh en David J. Gunkel het debat over de betekenis van ChatGPT vlot te trekken door een ‘deconstructie’ van oude metafysische tegenstellingen waaraan beide partijen vast zitten. Wat houdt deconstructie in?
Bij Derrida wijst ‘deconstructie’ op de poging de context-afhankelijke geschiedenis van de filosofische teksten te tonen. Deze teksten worden beschouwd als de sporen van gedachtenconstructies veeleer dan als de namen van transcendentale principes. De deconstructie van een denkwijze komt dus neer op het laten zien hoe deze tot stand is gekomen. (Fleischhacker, noot op pagina 17).
“Broadly speaking, deconstruction means here (and in this paper) that one questions the underlying philosophical assumptions and core concepts, rather than merely
engaging with the existing arguments.” (Coeckelbergh en Gunkel, 2023).
Dat bevragen van de onderliggende aannames gaat dus door middel van een herlezen en herinterpreteren van historische teksten. Een analyse van de historische momenten in de ontwikkeling van de wiskunde die uiteindelijke heeft geleid tot de informatietechnologie zal zowel een deconstructie van het mathematisme inhouden als een deconstructie van de klassieke metafysische tegenstellingen die het debat over die informatietechnologie beheersen. Bij Gunkel zijn dat subject-object, maar vooral ook ding-persoon. Fleischhacker gaat het erin Beyond Structure vooral om de grenzen van het wiskundig denken die tevens de grenzen van de ‘toepasbaarheid van de wiskunde’ en van de (informatie)technologie te markeren. Daarvoor moeten we diep duiken in de geschiedenis van het moderne westerse denken. Descartes, Leibnitz, Hume, Hegel, Frege en Wittgenstein, zijn onze belangrijkste gesprekspartners. Zij allen dachten vaak mathematisch. Descartes metafysica is wezenlijk mathematisch. Zijn dualisme wordt gekenmerkt door een strikte scheiding tussen twee substanties: het denkende ik en daar tegenover de werkelijkheid die wezenlijk uitgebreidheid is (res extensa).
De Nederlandse filosoof H. Pos noemt in het voorwoord van Het Vertoog over de Methode (1937), de Nederlandse vertaling van Discours de la Methode (1637), Descartes metafysica een mathematische metafysica. Maar ook Leibnitz metafysica heeft iets mathematisch. En bij Kant komen we uitspraken tegen die er op wijzen dat hij de hoeveelheid wiskunde in de natuurwetenschap van zijn tijd (met de Newtonse mechanica als paradigma) als maat zag voor haar kennisinhoud. Ook de moderne westerse filosofie na Kant kan zich maar met moeite aan het mathematische denken ontrekken, ook al beweren allerlei ‘postmoderne’ en ‘structuralistische’ opvattingen over kennis en taal zich bevrijdt te hebben van het Cartesianisme, het stricte mathematische dualisme.
De wiskundige stelt dat het zo en zo met de werkelijkheid gesteld is (“Die Welt ist alles was der Fall ist”) en keert nooit op zijn schreden terug. Iedere vorm van zelfreflectie van dit denken, waarin subject en object als relatie gedacht wordt, leidt tot paradoxen: het verzamelingbegrip kan niet als verzameling mathematisch worden uitgedrukt (Russel). Hegel probeert de mathematische fysica te begrijpen als adequate uitdrukking van het begrip van de natuur. De fysicus zelf doet dat namelijk niet. Hegel ziet de wezenlijke kenmerken van het mathematische denken en onderscheid het van het historische en filosofische denken, maar lijkt als systeembouwer toch niet geheel te ontkomen aan mathematisme. Ondertussen legt hij in zijn Logik wel de conceptuele basis voor het begrip dat vanaf de aanvang van de 20ste eeuw tot de dag van vandaag ons leven zou gaan beheersen: informatie: de uitdrukking van het kwalitatieve op kwantitatieve wijze. Ontkomt Gunkel aan de verleiding van het mathematische, technische denken? In hoeverre komt zijn project overeen met dat van Fleischhacker? Komt hij met een nieuwe metafysica?
Opmerkelijk is dat waar Heidegger, een filosoof waarnaar Gunkel herhaaldelijke verwijst, veel aandacht besteed aan het mathematische van de moderne metafysica en technologie, Gunkel het nergens heeft over het ‘mathematische’ van de technologie.
“How can we talk about technology without talking about our ‘mathematical metaphysics’?” vroeg ik hem via Twitter,
“… the book is less about technology and more about human social, moral, and legal institutions/systems. ” en
“Why does #AI/#Robots ask for a rethinking of the moral and legal order? That is THE organizing question of the book and what is (hopefully) resolved in the process of its analysis.”
Bij Louk vindt de mathematiek een wezenlijk grens in het leven zelf. De postmoderne filosofie vindt haar sleutelbegrip in de intersubjectiviteit: interactie van de persoonlijke, door de individuele achtergrond van het doorleefde leven, bepaalde perspectieven op de werkelijkheid. Bij Hegel gaat de techniek over in de relatie van man en vrouw (zie Jenaer Realphilosophie).
De eerste wetenschappers van de AI zagen het als hun doel een persoon te maken. Het is de moderne variant van een eeuwenoude traditie: de mens wil zelf op technische wijze een mens maken. Volgens Hollak is de automatie de uitwendige objectivatie van de technische idee als zodanig. Descartes godsidee (God is Causa sui) is de zelfprojectie van de autonoom denkende mens. De AI is het (voorlopige) eindprodukt van het technische project van de moderne mens dat uitgaat van het contrafactisch postulaat dat de mens een machine is, met als doel de verwerkelijking (implementatie) van een mathematische constructie, een formeel model van het (denk)gedrag van de mens. Dit is de sleutel tot het verstaan van het belang dat de theologen hechten aan de kunstmatige intelligentie: “God is dood en de techniek is zijn lijk”. De God als Causa sui van Descartes is de (projectie van) de moderne verlichte mens en deze probeeert hij in de robot te verwerkelijken.
Robot rechten?
“Thought we have been able to do corporate law and decide questions of legal personality for artificial entities without spending much effort on the metaphysical mathematics of the corporation.” schrijft Gunkel op Twitter.
Gunkel besteed weinig aandacht aan de relatie tussen ethiek en recht. Gerechtigheid (justice) is de verhouding tussen recht en ethiek vanuit de ethiek gezien. Is Gunkel een rechtspositivist die een scherpe scheiding ziet tussen ethiek (als het morele) enerzijds en het positieve recht anderzijds? Of gaat het debat over robot-rechten eigenlijk over wat het bestaan van de robot, deze vorm van autonome technologie, betekent voor de verhouding tussen ethiek en recht? Hoe zien we het positieve recht (als het om robots gaat) als we deze los zien van ethiek en moraal? De inhoudelijke begripsmatige link tussen ethiek en recht is de vrijheid van de persoon. De ethiek betreft de wil, het recht het gedrag als uitoefening van de vrijheid. De vrijheid wil gerealiseerd worden en erkend worden. Dat moet tot uitdrukking komen in het recht. Vanwege deze link tussen ethiek en recht is de vraag of de robot persoon is of ding een belangrijke vraag. Zonder het persoon-zijn van de robot is er geen basis voor een verhouding tussen ethiek en recht als het over robotrechten gaat.
Maar er zijn toch ook dierenrechten? Moeten we het begrip persoon oprekken tot sommige diersoorten om zinvol van een relatie tussen ethiek en recht te kunnen spreken? Ik denk het niet, alleen in fabels komen dieren voor die een persoon zijn. Bij dierenrechten gaat het erom hoe wij als mensen met dieren omgaan, vanwege hun dier-zijn. Het is een uitdrukking van de relaties die wij tot dieren (in het algemeen natuur) hebben. Hoe wij daar mee om gaan, wat wel en niet toegestaan is. Die relatie betreft niet alleen de consumptie van het dier, het fokken, verzamelen en verhandelen van dieren. Het is uitdrukking van de eigenwaarde van het dier zelf. Daarvoor is het niet noodzakelijk het dier als persoon te zien. Ook de robot hoeft niet als persoon te worden gezien om zinvol van robotrechten te spreken.
De boodschap van Gunkel is dat we niet langer moeten wachten met het werken aan een antwoord op de vraag of de robot een morele agent is en in juridische zin rechten moet worden verleend. Omdat de robots al onder ons zijn en meedoen aan het maatschappelijk verkeer.
Hij is daarin niet de enige. Ook vanuit het Future of Life Institute van Max Tegmark horen we dit geluid. Er werd zelfs door verontruste wetenschappers en ethici voor een moratorium op de ontwikkeling van AI gepleit. De Europese Gemeenschap heeft regels opgesteld voor de Ethiek van de ontwikkeling van AI. En ook in de VS zijn wetten die betrekking hebben op de deelname van robots (delivery robots) en automatische auto’s aan het verkeer. Ook zijn er regels voor autonome wapensystemen. Kortom: de robots zijn al onder ons en er zijn al regels en wetten voor specifieke situaties waarin deze worden gebruikt. De vraag die Gunkel stelt gaat echter verder en is fundamenteler van aard. Het gaat Gunkel om de kwestie of de robot ‘een persoon in juridische zin’ is of niet.
De robot als social relatie en als cognitieve relatie
Een sleutel-begrip in Gunkels notie van de sociale robot is dat wat de robot is wordt bepaald door de wijze waarop we een relatie tot de robot uitoefenen. Ook Mark Coeckelbergh wijst daarop.
Coeckelbergh en Gunkel spreken van een ‘relational turn’ in ons denken over de relatie met de ander.
Die relatie is een sociale relatie.
“In social situations, then, we always and already decide between who counts as morally significant and what does not and then retroactively justify these actions by “finding” the essential properties that we believe motivated this decision-making in the first place. Properties, therefore, are not the intrinsic prior condition for moral status. They are products of extrinsic social interactions with and in the face of others.” (David J. Gunkel, 2022)
In een uitvoerig review van Person, Thing, Robot door Abootaleb Saftari lezen we:
“Finally, the concept of ‘relation’ remains largely unexplored in Gunkel’s argument. It feels like a mystery, a “black box,“ with only a faint outline suggesting its social nature. This lack of clarity provides ground for further critique. One could argue that even if we agree with Gunkel’s relational perspective, our tendency to treat things as objects, to objectify them, might itself stem from our relational interactions with them.”
Dit is een belangrijk punt.
Gunkel gaat in zijn vraag ‘is een robot een ding of een persoon?’, uit van de polaire dichotomie ding persoon. Hij ziet in navolging van Derrida een probleem in het denken in polaire tegenstellingen subject-object, schijn-zijn. Dit zijn volgens Gunkel geen waardevrije tegenstellingen. Ze impliceren een hiërachische ordening: persoon is meer dan ding, en subject heeft macht over het object, het resultaat van objectivering. Gunkel is begaan met de natuur die als zoals Heidegger betoogt als bruikbaar bestand wordt gezien. Gunkel zet vraagtekens bij de antropocentrische houding van de mens tegen over de werkelijkheid. “The task before us is to question our (man’s) privileges.”
Gunkel methode om los te komen van de polariteit van subject-object, van persoon-ding, die hij als objectieve entiteiten voorstelt, is door deze als subjectieve constructies te gaan zien. Het primaat wordt de relatie die we in de sociale omgang met de dingen realiseren. In een discussie met Saetra over het primaat van de eigenschappen versus het primaat van de relatie merkt Gunkel op: “properties are understood in relational terms” en “properties-as-they-appear-to-us are a phenomenal effect of our social cognitive relation to things.” Maar gaan die relaties dan niet uit van de mens?
Het lukt maar niet om de relatie van het subject te bevrijden. Subject en object moeten dan ook als polaire opposities gedacht worden. Niet als tegenstellingen. De moeder is moeder van het kind, het kind kind van de moeder. Moeder en kind zijn momenten van de relatie, ze worden als zodanig bepaald door de relatie. Daar buiten bestaan ze niet als zodanig. Subject is subject van een object en object is object voor een subject. Die twee gaan altijd samen. Het zelfde geldt voor het paar kenner-gekende, en voor het paar mens-machine. De mens bestaat niet zonder de autonomie en de mechanismen van de natuur en het mechanische en machinale bestaat niet zonder de mens.
Gunkel denkt vanuit het (economisch) gebruik van de machine. Zijn opmerking dat de robot is wat het is in relatie tot de mens, heeft betrekking op deze gebruiksrelatie. De robot is een sociale agent.
De mens heeft de machine bedacht. Het is een realisatie van de technische idee, door Hollak als volgt gedefinieerd.
De technische idee is die abstracte verstandsvorm waarin de mens zijn beheersing van de natuur door middel van een originele combinatie van haar krachten tot uitdrukking brengt.
Die technische idee heeft zich in de geschiedenis door interaktie daarmee ontwikkeld. Een ontwikkeling die ‘parallel’ loopt met de ontwikkeling in de relatie van de wiskunde tot de natuur. De informatietechnologie veronderstelt, en is uitdrukking van, de zelf-reflexieve meta-mathematica, de wiskunde van het wiskundig denken.
De machine, en de programmeerbare machine of automaat is een zelfreflexieve vorm van een machine, is een cognitief relatieve notie.
De mens die weet dat de machine door hem gemaakt is, kan zich niet laten bedotten door een machine die in zijn relatie als gebruiker doet alsof deze zijn taal spreekt en hem begrijpt. Daartoe heeft de maker de techniek juist ontwikkeld. Dat hij er in geslaagd is de gebruiker de indruk te geven met een echt mens te maken te hebben is een soort van toegift, die niet bedoeld is. Het gaat de technicus immers om het functioneren van de machine. Het is van belang deze twee te onderscheiden. Artifical General Intelligence wordt wel als het summun van de AI gezien. Maar ook voor ‘AGI’ geldt dat het gaat om de simulatie van een diversiteit aan gedragingen in verschillende praktische situaties. Daarmee is nog niet de vraag beantwoord of AI bestaat in die zin dat de geestelijke vermogens die bij de mens ook uitwendig gerealsieerd kunnen worden. Dat lijkt ook een tegenspraak te zijn. Ook al vertonen mens en robot hetzelfde gedrag in een gegeven situatie, als het over de robot gaat zullen we het niet zien als uitoefening van zijn persoonlijke vermogens, terwijl we dat bij de mens wel doen. Het leren is bij de mens gericht op het ontwikkelen van geestelijke en zintuiglijke vermogens, ook al kan dit alleen maar door concrete aktiviteiten.
De machine als intentioneel correlaat
De Nederlandse filosoof Jan Hollak heeft in verschillende artikelen zijn gedachten over het fenomeen van de ‘denkende machine’ en de ‘bewuste machine’ met zijn lezers gedeeld. In zijn beroemde inaugurele rede Van Causa sui tot Automatie plaatst hij de volgende voetnoot.
“Wanneer hier voortdurend in verband met mechanismen van ‘reflectie’, ‘zelfreflectie’, etc. sprake is dan is daarmee vanzelfsprekend nooit het subjectieve act-leven van het menselijk denken bedoeld (machines hebben geen bewustzijn), maar steeds slechts zijn intentioneel correlaat” (In: Hollak en Platvoet, voetnoot op p. 185)
Hollak lijkt met deze voetnoot een hele boekenkast vol filosofieën waarin uitgegaan wordt van de mogelijkheid van het bestaan van de ‘denkende machine’ naar het rijk der fabelen te verwijzen.
In Meeting on neutral ground, a reflection on man-machine contest, zegt de wiskundige en logicus Albert Visser:
“After all, machine and program are intentional notions. So to understand the machine, we need to understand man.” (Albert Visser, 2020).
Dit sluit aan bij Coolen en Fleischahcker: “de machine is een werkend teken”. Maar ook om de machine te begrijpen moeten we de mens begrijpen, want machine is een intentioneel begrip.
Voor veel mensen is het echter helemaal niet zo ‘vanzelfsprekend’ dat de machine ‘geen bewustzijn heeft’. De term ‘intentioneel correlaat’ komt uit een stroming in de filosofie die niet zo populair is bij wetenschappers en filosofen. Het is een belangrijke notie, waar diverse filosofen hele boeken aan besteedden (Searle, 1983; Dennett).
Het gaat dus om begrip van begrip. De machine is uitdrukking van ons begrip en dat zouden we moeten begrijpen.
Het object van de intentionele act (bewustzijn is altijd bewustzijn vàn iets, we denken altijd iets, een gedachte), heet in de fenomenologische traditie het ‘intentioneel correlaat’ van de act. Als ik denk aan de lamp is het denkbeeld het intentioneel correlaat van mijn gedachte. We maken een onderscheid tussen de toestand van de lamp: hij is aan of uit, en de toestand van de lamp als representatie van de toestand van het technische systeem waarvan deze onderdeel is. De controlelamp van de schakelaar in de auto heeft een functie in een werkend systeem, in de auto, in een machine. De toestand ervan is een toestand zoals ik die begrijp: de lamp is aan of uit, als onderdeel van een systeem. Die toestand als toestand van een systeem is niet iets dat de lamp op zich eigen is. Die denken wij erbij. Voor wie niet bekend is met de technische constructie is de lamp slechts wat deze onmiddellijk in de ervaring is. Voor wie niet weet wat rekenen is bestaat de rekenmachine niet.
We kunnen de machine dus alleen in relatie tot de mens zinvol beschouwen omdat deze alleen in een cognitieve relatie tot de mens als machine bestaat. (Zoals de kriebels op papier alleen voor wie weet wat taal is woorden voorstellen.) Het wezenlijke van de machine is de technische idee, het concept.
We kunnen mens en machine wel onderscheiden, maar niet van elkaar scheiden. Zoals we de binnenkant en de buitenkant van een kopje wel kunnen onderscheiden, maar niet werkelijk van elkaar kunnen scheiden. Die horen bij elkaar als de twee relata van een relatie. Ze komen niet apart in werkelijkheid naast elkaar voor. Nu is het bij de mens-machine-relatie zo dat beide ook zelfstandigheid hebben. Ze komen buiten elkaar als ‘dingen’ in de werkelijkheid voor. Dat maakt het verleidelijk te denken dat de machine ook als machine iets zelfstandigs buiten de relatie tot de mens is. De mens staat tegenover de machine en kan de machine bedienen via lichamelijk contact. Dat maakt dat veel mensen vergeten dat de machine alleen machine is in relatie tot de mens. Als we het over dat ding als machine hebben en het als machine gebruiken dan hebben we het over een cognitief gefundeerde relatie die in een materiële vorm is geobjectiveerd: het ding is uitdrukking, realisatie van een concept, een ontwerp. Zonder dat relatieve moment tot de mens die het ding heeft ontworpen is het ding geen machine, maar slechts een fysisch proces zonder betekenis.
De AI is niet alleen objectivatie van de cognitive relatie van de denkende mens met de natuur, die hij in de wetenschappelijke technologie als een bestand van wetmatigheden ziet, AI is ook objectivatie van de communicatieve sociale relatie van de mens met de dingen. Taal functioneert in de moderne techniek niet meer alleen als code-taal om berekenen te programmeren, taal functioneert ook als communicatietaal tussen mens en machine, opgevat als ‘conversational social agent’. Niet alleen oorzakelijke natuurkrachten, maar ook psychologische mechanismen, gewoontes, worden als uitwendige krachten gebruikt in de techniek. Wanneer een robot zich als mens presenteert en groet, dan groeten we terug. Ons taalgedrag is uiting van gewoontes die patronen bevatten die door de technologie worden aangeleerd en opgeslagen in grote taalmodellen (LLMs). Deze worden in dialoogsystemen gebruikt om gegeven een contributie van de gebruiker een als zinvol beschouwde, statistisch meest adquate respons te genereren.
Ik heb er bezwaar tegen wanneer de krantekoppen weer eens vermelden dat “AI beter op een bepaalde taak X presteert dan de menselijk expert.” Of dat “de computer betere beslissingen neemt dan de mens.”
De computer kan helemaal geen beslissingen nemen, ze werkt op basis van combinaties van logische electronische circuits waarvan de functie is de representatie van een logische denkregel in een mathematische vorm: als A dan B anders C. Het is van belang om vrijheid niet te vereenzelvigen met keuzevrijheid. De machine is geprogrammeerd om een keuze te maken, maar is niet vrij in het bepalen van de betekenis, waarde, van de factoren die de keuze bepalen. De drone kent de waarde van zijn doel, de dood en het leven van de vijand, niet.
Over het gebruik van de term ‘intentioneel correlaat’.
De vergissing die men vaak maakt is de toedracht van een machine alleen inhoudelijk te nemen (‘materialiter’) en niet ook naar de vorm (als toedracht, ‘formaliter’). Het lampje op het dashboard is in een toestand aan of uit, die niet alleen maar zegt of het lamp zelf brandt of niet (dat is, zoals Austin in Other Minds terecht opmerkt, een ‘absurde gedachte’) het is een toestand die verwijst naar een technische ontwerp, een systeem, waarin het ‘aan’ of ‘uit’ zijn een functie heeft. Het is bijvoorbeeld een schakelaar die als interface werkt voor de gebruiker om de airco te controleren.
De morele status van de robot
De sociale, praktische relatie met de robot is voor Gunkel het aanknopingspunt voor de ethische, morele en juridische status van de robot. De vraag is of de robot ooit verantwoordelijkheid zal kunnen nemen moet m.i. met een ferm Nee worden beantwoordt. Dat neemt niet weg dat de robot die deelneemt aan het sociale verkeer ‘zich moet houden’ aan sociale regels. Het ‘gedrag’ van de robot kan wel oorzaak zijn van een ongeval, maar de robot kan niet aansprakelijk gesteld worden voor de gevolgen ervan. Het is vanwege de technische cognitief intentionele wijze van zijn van de robot dat de robot geen moreel subject is en ook niet in juridische zin als persoon kan worden aangemerkt. De robot kan aan het feit dat dieren of organisaties bepaalde rechten hebben geen rechten ontlenen. Ze passen als technisch ontwerp niet in deze indeling van levende organismen.
Wat de deelname van de robot aan het sociale verkeer (arbeid, spel) betreft, moeten we onderscheiden, de interne regels van dit verkeer waaraan de robot zich moeten houden, en de externe regels die bepalen onder welke voorwaarden een robot als ‘autonome’ speler aan het ‘spel’ mag meedoen. Die beslissing zal uiteindelijk een mens moeten nemen en kan niet aan een robot worden overgelaten. Maar misschien dat Gunkel van mening is dat dit in de toekomst niet uitgesloten is en dat de robot dus ooit eens zelf beslist of deze aan bepaalde spelen mee kan en zal doen.
Het is één van de kenmerken van het mathematisme het leven als een (serieus) spel, of levensvorm te zien en de taal zuiver functioneel op te vatten: de betekenis van de woorden wordt bepaald door het gebruik ervan in een taalspel die hoort bij een levensvorm. We zijn nu in de gedachtenwereld van Wittgenstein beland. Zijn strikte onderscheid tussen Sagen en Zeigen is teken van zijn mathematische houding, een erfenis van Frege. De taal louter functioneel, als instrument, zien en het verwoordingskarakter van de taal uit het zicht verliezen, dat is kenmerkend voor de idee die ten grondslag ligt aan die opvattingen die de AI machine in de vorm van ChatGPT zien als een werkelijk intelligente, denkende machine, die bewustzijn zou hebben. Het motief is dat ze immers taal gebruiken en de taal bij de mens de uitdrukking is van het denken als denken. Maar de machine ‘gebruikt taal’ niet zoals de mens taal gebruikt. De mens tracht de werkelijkheid zoals hij deze ervaart te verwoorden. Machines kunnen dat niet. Ze zijn weerslag van het historische produkt van die pogingen tot verwoording, zonder dat historische in ogenschouw te nemen, en als historisch te begrijpen.
Cybernetica en de vraag naar de eigenaar van AI
Een onderwerp waar Gunkel veel aandacht aan besteedt is de relatie tussen tekst en auteur. HIj keert dan terug naar teksten van Plato en de discussie over de relatie tussen gesproken en geschreven taal. In de laatste zou de auteur niet aanwezig zijn. Hij kan geen antwoord geven op vragen over de tekst. De klassieke notie ‘auteur’ zou door het fenomeen van de taalgenererende machine aan een revisie (deconstructie) moeten worden onderworpen. Stakingen van auteurs en artiesten getuigen van de onrust die programmas als ChatGPT te weeg brengen: men is bang zijn baan kwijt te raken door inzet van de AI. Zoals de thuiswerkende spinners en wevers zich verweerden tegen de komst van de spinning Jenny en de fabrieksmatige produktie van geweven stoffen. Anderen zien er nieuwe uitdagingen in. Er is geen houden aan de ontwikkeling van de techniek. We zullen ermee moeten leren leven. Totdat de wal het schip keert.
Auteurschap is een vorm van intellectueel eigendom. In onze super-individualistische samenleving (de VS schijnt nog erger te zijn dan Europa) is dit direct gekoppeld aan eigen identiteit, inkomen en toekomst. Die informatie-technologie gooit ook die structuur overhoop. Wat bedoel ik daarmee?
Als we een wasmachine kopen dan kopen we een af product. De machine werkt na vijf jaar gebruik nog net zo als toen we hem voor het eerst gebruikten. De machine kan een keer kapot gaan. Dan wordt deze gerepareerd en hij gaat weer een jaartje mee. De fabriek ontvangt feedback van reparateurs en reviews van gebruikers waarmee het zijn voordeel doet bij het ontwikkelen van een verbeterde versie van de machine. In de wereld van de ICT gaat het ook zo, maar ook anders. OpenAI heeft met ChatGPT een product aan de gebruikers aangeboden dat een ‘zelflerende’ chatbox is. Het product is niet af. Het is een minimale realisatie van een concept dat zich in en door het gebruik ontwikkelt. De gebruikers zijn medeontwikkelaar van het systeem. De dialogen met de machine worden opgeslagen en dienen als nieuw materiaal waarvan het systeem leert. De ontwikkellus: ontwerp, implementeer, test, herontwerp, gebruik en herontwerp is bij openAI kortgesloten.
In een dialoog kunnen we verschillende virtuele dialoog ‘kanalen’ onderscheiden die elk hun eigen taalgebruik, hun eigen toon, hebben. Over het primaire kanaal, worden vragen gesteld en antwoorden gegeven. Daarnaast is er een feedback kanaal waarover de informatie gestuurd wordt die betrekking heeft op de wijze waarop vraag en antwoord door de sprekers worden gewaardeerd (o.a. hedges). Feedback over wat de ontvanger van een antwoord vindt is leerzaam voor de vragensteller. Het systeem luistert als het ware zelf mee naar zijn gesprekken en leert daarvan, zoals mensen dat ook doen in een gesprek. We zien dat in deze fase van de technische ontwikkeling ontwerp, evaluatie, feedback en gebruik van het systeem als aspecten van een dialoog door interaktie met het systeem gerealiseerd worden. In de open informatietechnologie van ChatGPT zijn de sociale interaktie relatie en de cognitieve relatie van de machine met elkaar verweven geworden. In de machine is het begrip van de sociale interaktie door middel van taal expliciet op technische wijze gerealiseerd.
Wie is de auteur van het gesprek? Wie kan de rechten claimen op de kennis die in het gesprek naar boven komt? Het zijn onderwerpen die de sociaal-economische structuren van de samenleving ongetwijfeld zullen veranderen.
Death of an Author
In zijn post “The Future of Writing Is a Lot Like Hip-Hop” in The Atlantic of 9 may 2023 brengt Stephen Marche rapport uit van zijn ervaringen met het in cooperatie met ChatGPT schrijven van hun essay Death of an Author. In dat rapport geeft hij commentaar op de manier waarop gebruikers ChatGPT opdrachten geven. “Quite quickly, I figured out that if you want an AI to imitate Raymond Chandler, the last thing you should do is ask it to write like Raymond Chandler.” Why not? Because “Raymond Chandler, after all, was not trying to write like Raymond Chandler.”
Ik geloof dat dit verwijst naar een kerninzicht in wat AI is en waarom het niet menselijk is. AI gedraagt zich namelijk als mensen. AI probeert zich tenminste zoals mensen te gedragen. AI berust op een reconstructie, een model van gedrag. Maar mensen proberen zich niet te gedragen zoals mensen zich gedragen. Mensen gedragen zich zelfs niet ‘als mensen’. De mens verhoudt zich als subject tot zichzelf als mens in zich gedrag. Wie het gedrag niet ziet als uiting van deze relatie tot zichzelf die neemt de toevallige buitenkant voor het wezen van het gedrag.
Wat ik bedoel is dat we de reconstructie als reconstructie moeten zien en niet als het orgineel. Het origineel als origineel verdwijnt namelijk in en door de formalisering, door de reconstructie. De mens is geen ‘sociale agent’. Dan zouden we de mens vereenzelvigen met een bepaalde historische vorm ervan. Dat is de kern van de discussie over allerlei vormen van bias (gender, culture) van open AI systemen zoals ChatGPT.
David Gunkel heeft met zijn waardevolle werk, een poging gedaan het lastige probleem van de zelfstandigheid van de technologie in relatie tot de mens te verhelderen door met veel inzet de discussie daarover in de wetenschappelijke literatuur te beschrijven en te becommentariëren.
In het slothoofdstuk van Person, Thing, Robot geeft Gunkel aan dat wie in dit boek had verwacht een antwoord te vinden op de vraag of de robot een persoon of ding is, teleurgesteld zal zijn. Dat antwoord geeft het boek niet. Gunkel denkt dat het antwoord in de toekomst ligt en dat de ontwikkeling van de techniek en van het recht daar een antwoord op zal geven.
Gunkel is uit op een deconstructie van de opposities van subject en object, van person en thing, karakteristiek voor de metafysica. Deze lijkt hij in navolging van Heidegger te identificeren met de mathematische metafysica die ten grondslag ligt aan het wezen van de technologie, het Ge-stell. Via Kant’s noumenale werkelijkheid van de Dinge-an-sich, komt Gunkel op het spoor van het onbepaalde zijn; dat wat achter de bepalingen van ons rationele denken en onze taal ligt: het Ding.
“The Thing”- met een hoofdletter! – “deconstructs the person-thing dichotomy”.
It escapes the conceptual grasp of existing categories and remains entirely and disturbingly otherwise.” (p. 167).
De westerse metafysica, zo klinkt Gunkel, is een machtsdenken, een doctrine in strijd met het idee van vrijheid. Het is een bekend geluid: In het Cartesiaanse ego cogito gaat volgens de kritici van het westerse imperialisme schuil: het ik denk, dus ik heers.
Op zoek naar een alternatief voor de vaste opposities van de metafysica, dreigt een relativisme, “anything goes”, Het dilemma waarvoor de kritiek op de systematische metafysica zich geplaatst ziet lijkt uit te lopen op het enig alternatief: een ‘noodzakelijke constructie’, hetgeen uiteraard een paradoxale notie is: iedere constructie heeft iets willekeurigs. De deconstructie van deze onmogelijke ‘noodzakelijke constructie’ leidt dan tot een oneindige veelheid van alternatieven.
“Unlike heady metaphysical speculation about who is a person and what is a thing, law needs to make decisions—literally, a cut in the fabric of being—to divide between who counts as a legitimate legal subject and what does not as an object. The trick is not to find a single, common truth that is universally valid in all times and places, but to recognize how any proposed “universal truth” is itself already part of the same game—a particular way of understanding Things that is raised to the standpoint of a universal through the imposition of power.”
Heideggers introduceerde de notie van ‘Seinsvergessenheit‘ als kritiek op de gefixeerde oppositie van subject en object. Een dergelijke fixatie is typische kenmerk van mathematische reflectie. Voor Heidegger is de moderne technology die gebaseerd is op een mathematische experimentele natuurwetenschap de realisatie van een mathematische metaphysica. Fleischhacker schrijft hierover in zijn raport van een deconstructie van het mathematisme in de filosofie:
“The ‘Verdinglichung des Seins’ , the blurring of the ontological difference, reminds us of what is done in mathematical reflection: creating ideal entities as actualizations of a potency. This potency – structurability – is of another order than its ideal actualizations – the mathematical objects -, and it is indeed ‘forgotten’ and inexpressible in mathematical thought.” (Fleischhacker, p. 146, voetnoot 172)
Bij Gunkel komen we vergelijkbare aanduidingen tegen:
“The Thing (Gunkels oplossing van de deconstructie van de gefixeerde klassieke metafysische dichotomy van persoon en ding) comprises an alternative category of being that is situated outside of and anterior to the person-thing-dichotomy.”
Wat betreft het tekortkomen van de taal als uitdrukking van het zuivere zijnde (Thing) citeert Gunkel met instemming Esposito: “The naming of thing has the character of a violent intrusion.”
Gunkel: “The linguistic sign, despite initial appearances, is not just some neutral tool that represent things as they really are. Instead, language violates and domesticates things.”
Wat rest is een uiterst terughoudende houding, door Heidegger aangeduid met de term ‘Gelassenheit’. Laat gaan. Het heeft iets fatalistisch, iets nihilistisch ook.
Maar de afwezigheid van het mathematisch zijnde in de mathematische reflectie kan niet op het conto van de klassieke metafysica geschreven worden. Het is een kenmerk van de moderne metafysica, zoals die door Heidegger bekritiseerd wordt. Gunkels deconstructie moet dan ook gezien worden als een aanval op het mathematisme van de moderne metafysica. Het mathematisme houdt de structuur van de dingen, het systeem van zijnden, de structuur van de taal, voor het wezen ervan. Het vergeet de structuur te zien als een uiting en werking van de kwaliteit van het zijnde door deze op zich te objectiveren waardoor deze in de plaats komt van het zijn zelf. Kenmerk voor de mathematische houding is het afzien van de eigen inbreng van het denkend subject. Die eigen inbreng van het subject wordt afgestoten in de vorm van procedures en methodes. De werkelijkheid die zo voorgesteld verschijnt, in de vorm van mathematische modellen, wordt niet gerelateerd aan de methode. Het produkt van dit ‘rekenende’, voorstellende, denken wordt gefixeerd.
Uitdrukkingen als “using language into an object of reflection” en “things become objects by being names, so through language” wijzen op het mathematische en het mathematiseren. Namen, wiskundige tekens, zijn ‘rigid identifiers’ ze verwijzen in hun gebruik uniek en hun functie ligt vast in het teken-systeem waar ze onderdeel van zijn. Maar dan hebben we het niet over de taal als verwoording van de door de mens ervaren werkelijkheid, een taal die openheid is en vatbaar voor vele interpretaties. De moreel onaanvaardbare kolonisatie, het gevaar van de technologie (Heidegger), zit hem in het verwarren van de gemathematiseerde taal zoals die door AI (‘conversational agents’) ‘gebruikt’ wordt en de oorspronkelijke taal; de verwarring van de taal die functioneert in een taalspel, met de taalvaardigheid van de mens, die voeling houdt met de werkelijkheid.
Mijn conclusie is dat de structureerbaarheid, de kwantitatieve potentie van de natuur, overeenkomt met de nog onbepaalde bepaaldbaarheid van Gunkels Thing, dat wat in de achtergrond, afwezig is in iedere structurering. Wat Gunkel presenteert als een deconstructie van de gefixeerde metafysische oppositie van ding en persoon. kan beschouwd worden als een (impliciete) kritiek op de overheersing van het mathematisch technische denken als het gaat om het uitdrukken van de aard van het technisch artefact.
Bronnen en noten
(*) Voetnoot:
De Nederlandse bundel met essays van Emmanuel Levinas heeft als titel Het Menselijk Gelaat. Vaak worden ‘gelaat’ en ‘gezicht’ als synoniemen beschouwd. Het Engelse ‘face’ is zowel vertaling van het Nederlandse ‘gezicht’ als van het Nederlandse ‘gelaat’. Ik voel een verschil dat in de Engelse vertaling verloren gaat. Het Franse ‘visage’ heeft het zelfde probleem. Je kunt wel een gezicht tekenen, een gezicht afbeelden en een robot een gezicht geven, maar niet een gelaat. Het woord ‘inter-face’ (ook ‘user inter-face’) dat staat voor de component van een systeem dat zorgt voor de technische interaktie tussen gebruiker en systeem bevat het woord ‘face’. Het is hoe het instrument zich naar de gebruiker toont. Het biedt zicht op de toestand van het proces en omvat ook de hendels en knoppen voor het besturen van het systeem. De geformaliseerde ‘natuurlijke taal’ is de inter-face van de chat systemen. Alleen de mens heeft een gelaat in de zin van Levinas. Erving Goffmans sociologische studies On Face-work hebben als onderwerp ‘politeness’, respect voor de ander in sociale interactie en gaan over hoe je een ‘agent’ moet maken zo dat deze kan deelnemen aan het sociale verkeer.
Bruijnes, Merijn (2016). Believable suspect agents: response and interpersonal style selection for an artificial suspect. PhD Thesis University of Twente (2026).
In samenwerking met de Politie Academie analyseerden we opnames van politieverhoren met echte of gespeelde verdachten om hun interactief gedrag te modelleren. We hebben de computermodellen gebruikt om ‘virtuele verdachten’ te synthetiseren die echte menselijke acteurs zouden kunnen vervangen. We concentreerden ons op de rol van ‘face’ en de effecten van ‘face’-bedreigende dialooghandelingen en andere factoren, zoals karakter van de verdacht, op de dynamiek van het verhoor.
David J. Chalmers (2023). Could a large language model be conscious? Within the next decade, we may well have systems that are serious candidates for consciousness. Boston Review, 9 Augustus 2023.
Coeckelbergh, M., and Gunkel, D. 2023. ‘ChatGPT: Deconstructing the Debate and Moving It Forward‘ in AI & Society. Online first 21 June 2023.
Maarten Coolen (1992). De machine voorbij: over het zelfbegrip van de mens in het tijdperk van de informatietechniek. Boom Meppel, Amsterdam, 1992.
Maarten Coolen (1987). Philosophical Anthropology and the Problem of Responsibility in Technology. In P. T. Durbin (Ed.), Philosophy and Technology, Vol. 3: Technology and Responsibility (pp. 41-65). Dordrecht: Reidel.
“Information technology must be conceived of as the objectification of the modern self-concept of man as an autonomous being.”
Fleischhacker, Louk E. (1995). Beyond structure; the power and limitations of mathematical thought in common sense, science and philosophy. Peter Lang Europäischer Verlag der Wissenschaften, Frankfurt am Main, 1995.
Frege, Gottlob (1892). Uber Sinn und Bedeutung. Opgenomen in: Gottlob Frege: Funktion, Begriff, Bedeutung, Uitgave: Vandenhoeck & Ruprecht in Gottingen, pp. 40-65, 1975.
Frege voert de term ‘Gedanke’ in voor de inhoud van een oordeelszin: ”Ein solcher Satz enthält einen Gedanken.” “Ich verstehe unter Gedanke nicht das subjektive Tun des Denkens, sondern dessen objektiven Inhalt, der fähig ist, gemeinsames Eigentum von vielen zu sein.” (Voetnoot p. 46).
“Warum genügt uns der Gedanke nicht? Weil und soweit es uns auf seinen Wahrheitswert ankommt. Nicht immer ist dies der Fall. Beim Anhören eines Epos z.B. fesselen uns neben dem Wohlklange der Sprache allein der Sinn der Sätze und die davon erweckten Vorstellungen und Gefühle. Mit der Frage nach der Wahrheit würden wir der Kunstgenuss verlassen und uns einer wissenschaftlichen Betrachtung zuwenden.” (Frege, Über Sinn und Bedeutung, 1892, p. 48)
Of het ons “gleichgultig” is dat ChatGPT ons een werkelijkheid voorstelt die waar is of niet, hangt daarvan af of we deze machine als kunstwerk dan wel ‘wetenschappelijk’ beschouwen.
Goffman, Erving (1967). Interaction Rituals: essays on face-to-face behavior. 1967.
Gunkel, David J. (2012). The machine question: Critical perspectives on AI, robots, and ethics. Cambridge: MIT Press.
Gunkel, David J. (2014). The Rights of Machines–Caring for Robotic Care Givers. Presented at AISB 2014. Chapter in the Intelligent Systems, Control and Automation: Science and Engineering book series (ISCA,volume 74).
Gunkel, David J. (2017). The Other Question: Can and Should Robots have Rights? In: Ethics and Information Technology, 2017.
Gunkel, David J. (2023). Person, Thing, Robot A Moral and Legal Ontology for the 21st Century and Beyond, MIT Press, Open acces, September 2023.
“Ultimately, then, this is not really about robots, AI systems, and other artifacts. It is about us. It is about the moral and legal institutions that we have fabricated to make sense of Things. And it is with the robot— who plays the role of or occupies the place of a kind of spokesperson for Things— that we are now called to take responsibility for this privileged situation and circumstance.” (p. 184)
Georg W.F. Hegel (1969). Jenaer Realphilosophie – Vorlesungsmanuskripte zur Philosophie der Natur und des Geistes von 1805-1806. Uitgave Johannes Hoffmeister, Verlag von Felix Meinder, Hamburg, 1969.
Heidegger, Martin (1977). The Question Concerning Technology and Other Essays. Trans. William Lovitt. New York: Harper & Row (1977).
Technologie is niet techniek. Het is een vorm van ‘Entbergen’. Mit “entbergen” ist gemeint: etwas hervorbringen oder etwas zum Vorschein bringen.
Hollak, J.H.A. (1968). Betrachtungen über das Wesen der heutigen technik. Kerygma und Mythos VI Band III, Theologische Forschung 44, 1968, Hamburg, Evangelischer Verlag, pp 50-73. Dit is de vertaling van het Italiaanse artikel (Hollak 1964) Ook opgenomen in de bundel Denken als bestaan, het werk van Jan Hollak (Hollak en Platvoet, 2010).
Hollak, J.H.A. (1964). Considerazioni sulla natural della tecnica odierna, l’uomo e la cirbernetica nel quadro delle filosofia sociologica, Tecnica e casistica, Archivo di filosofia, 1/2, Padova, 1964 pp. 121-146, discussie pp 147-152.
Hollak, Jan en Wim Platvoet (red.) 2010. Denken als bestaan: Het werk van Jan Hollak. Uitgeverij DAMON, Budel, 2010. In deze bundel het transcript van de opname van het Afscheidscollege over de hypothetische samenleving door Jan Hollak gehouden in Nijmegen op 21 februari 1986. Ook de inaugurele rede Van Causa sui tot Automatie is hierin opgenomen.
Volgens Hollak wordt alles tegenwoordig functioneel opgevat. “Het aanvaarden van een feitelijke toedracht is er niet meer bij.” (p. 436). Alles wat we kunnen observeren is maar zo onder bepaalde condities en hypothesen, die we zo weer kunnen veranderen. Feiten zijn functie-waarden van bepaalde aannames. Ook het tegendeel van een feitelijke toedracht wordt als mogelijkheid gezien. Terwijl als het een feit is dat vandaag de zon is opgegaan het toch niet meer zo kan zijn dat deze niet is opgegaan.
Ook al onze ‘leefverhoudingen’ worden volgens Hollak door de moderne wetenschap tot puur hypothetische, logisch mogelijke ietsen gemaakt. Het is niet zo dat onze wetenschap ons leven verheldert. Dezelfde aanklacht tegen de wetenschap zien we bij Husserl in zijn Krises der Europäischen Wissenschaften.
Levinas, E. (1987). Collected Philosophical Papers. Trans. Alphonso Lingis. Dordrecht: Martinus Nijhoff.
Emmanuel Levinas (1971). Het menselijk gelaat. Vertaald en Ingeleid door O. de Nobel en A. Peperzak. Ambo, 1969, Bilthoven. Hierin: Betekenis en zin, pp.152-191. (Vertaling van La signification et le sens. in: Revue de Métaphysique et de Morale 69 (1964), 125-156.)
Levinas, E (1951). L’ontologie est-elle fondamentale? In: Revue de Métaphysique et de Morale 56 (1951) 88-98.
“Kunnen de dingen een gelaat krijgen? Is de kunst niet een aktiviteit die de dingen een gezicht verleent?” Deze vraag stelt Levinas in zijn opstel “Is de ontologie fundamenteel?” Geheel in de geest van Levinas moet het antwoord ontkennend zijn. Want wie kan de dingen die van zichzelf geen gelaat hebben een gelaat geven? Het gelaat is niet iets dat na de ontmoeting met de ander aan ons verschijnt. Een gelaat geef je niet. Alsof we daar de macht toe hebben! Het gelaat betekent de weerstand tegen de macht van de technologie, die de dingen een gezicht wil verlenen ten behoeve van het functioneren van het bedrog. Want zonder de suggestie iets voor de mens te betekenen werkt de machine niet.
Toivakainen, Niklas (2015). Machines and the face of ethics. In: Ethics and Information Technology, Springer, 2015.
Ik ben het eens met Niklas Toivakainen waar hij zegt “that understanding our ethical relationship to artificial things cannot be detached from a critical examination of what moral dynamics drives our technological aspirations.” (Toivakainen, 2015).
Albert Visser (2020). Meeting on neutral ground. A reflection on man-machine contests. In: Studia Semiotyczne (Semiotic Studies) t. XXXIV, nr. 1 (2020), pp. 279-294.