David J. Gunkel is een Amerikaanse academicus en Presidential Teaching Professor of Communication Studies aan de Northern Illinois University. Hij geeft cursussen in webdesign en programmeren, informatie- en communicatietechnologie en cybercultuur.
Gunkel heeft een indrukwekkende lijst boeken op zijn naam staan, waaronder An Introduction to Communication and Artificial Intelligence, Robot Rights, The Machine Question, Of Remixology, maar ook (samen met Paul A. Taylor) Heidegger and the media. Onlangs verscheen bij MIT Press het langverwachte Person, Thing, Robot – a moral and ethical ontology for the 21st century and beyond. Momenteel is hij op rondreis langs universiteiten in de VS en Europa om lezingen te houden en zijn boek en ideeën over de rechten van robots wereldkundig te maken. Gunkel is een bevlogen spreker en actief op X. Ik ben bekend geraakt met zijn werk via Twitter.
Een centraal thema in zijn werk is de kwestie of robots, intelligente sociale machines, als morele ‘agenten’ beschouwd moeten worden en of deze ook rechten in juridische zin verleend moeten worden, zoals mensen, dieren, rivieren, en organisaties die ook hebben. Gunkel claimt dat het fenomeen AI, en sociale robots in het bijzonder, onze denkkaders overhoop haalt. Waar moeten we de robot ontologisch plaatsen? Is de robot een ding of een persoon? Zijn antwoord is: de robot past daar niet in. We moeten de oude metafysica heroverdenken. Terug naar Plato.
De term die Gunkel voor dit project gebruikt is deconstructie. Het begrip staat centraal in zijn boek Deconstruction. De term komt van Jacques Derrida, naast Emmanuel Levinas, één van de twee Franse denkers aan wiens ideeën Gunkel zijn gedachten meet. Gunkels deconstructie project bestaat uit twee fasen, een analytische fase en een synthetische fase, en je zou kunnen stellen dat hij in de eerste vooral met Derrida in dialoog is en in de tweede met het gedachtengoed van Levinas, waarin het ethische (de Ander) vooraf gaat aan de ontologie (het Zijn zelf). De notie ‘face’ (‘gelaat’) speelt een sleutelrol. Hier is een link met de technische ‘interface’ van mens en machine: de (programmeer)taal is die interface.
De ethische kwestie zou verwoord kunnen worden als: heeft de machine een gezicht? Spreekt de robot ons in morele zin aan? Het is uit human-computer-interaction onderzoek bekend dat de gebruiker de neiging heeft in interakties de machine als ‘sociale agent’ te behandelen. Het verlenen van allerlei antropomorfe kenmerken (een gezicht) versterkt deze neiging. De technici leren de robot niet onze taal te spreken en verstaan met als doel de gebruiker te misleiden en te laten denken dat de robot één van ons is, maar omdat het de werking, de interaktie, het gebruiksgemak, ten goede komt. De gebruiksonvriendelijkheid van de AI en de robot zit hem er daarentegen in dat de robot niet ter verantwoording kan worden geroepen. Dat is het praktische probleem van de AI. Kunnen we het ding aan zichzelf overlaten? Het is daarom spannend te horen wat Gunkel hierover te zeggen heeft. Kan de robot ooit één van ons worden en voor het gerecht gedaagd worden? Ik kom hier later op terug.
Gedeelde interesse
Met Gunkel deel ik de interesse in het fenomeen van de kunstmatige intelligentie en de taal. Het onderwerp van de technologie, haar historische ontwikkeling als onderdeel van de antropologie, houdt me vanaf mijn studie wiskunde en informatica in Twente bezig. Ik ben daarin vooral geïnspireerd door mijn afstudeerdocent, de logicus en filosoof Louk Fleischhacker. Bij hem volgde ik colleges Mathematische Logica, Wijsbegeerte van het Wiskundige Denken en de Informatietechnolgie. Ik maakte via deze colleges kennis met het werk van de grote filosofen, Aristoteles, Hegel, Frege. Wij bestudeerden samen het werk van Hegel en hij bracht mij in contact met het werk van de filosoof Jan Hollak: Hegel, Marx en de Cybernetica (1963), Van Causa sui tot Automatie (1966). Deze inzichten zijn nog steeds van grote waarde voor het debat over de automatie. In Amsterdam deed ik mee aan de studiegroep Antropologie van de Technologie onder leiding van Maarten Coolen, die op dit onderwerp promoveerde.
Eind 1978 studeerde ik af bij de vakgroep Theoretische Informatica van de Technische Hogeschool Twente (nu University of Twente) op de formule Z(Z) = Z(Z), waarbij Z = λx.x(x) de lamda term is die staat voor de zelfapplicatie functie.
Die Z(Z) links van het =-teken moet je lezen als een applicatie (of een opdracht daartoe) van de zelfapplicatiefunctie Z op zichzelf als argument. Die Z(Z) rechts is het resultaat van deze bewerking. Het is dus een ‘dynamische gelijkheid’. In principe niet veel anders dan meer bekende ‘gelijkheden’ als 4/8 = 1/2 of 5 + 7 = 12. Wat links staat is een (opdracht tot een) bewerking, maar ook al aanduiding van het resultaat. Wat rechts staat is het resultaat nog een keer, maar in een normaalvorm. In Z(Z)=Z(Z) gaat de bewerking dus over in de bewerking zelf, ad infinitum. Zoals een onbelaste motor in zichzelf blijft draaien. Volstrekt nutteloos, maar zelfapplicatie kom je overal tegen waar mensen proberen op mathematische wijze automatie of het leven te begrijpen. In de programmeerbare machine werken de wiskundige tekens; hun betekenissen worden daarin gerealiseerd, dat is tot een voor ons begrijpelijke normaalvorm gereduceerd. (ChatGPT probeert onze taal te normaliseren door de historische verwoording van ideëen als norm aan de lezer op te leggen.)
Mijn afstudeerproject ging dus over ‘de zelfapplicatie van de zelfapplicatie als mathematische uitdrukking van de automatie als uitwendige objectivatie van de zelfreflectie van de verstandsreflectie’.
Ik werkte als docent wis- en natuurkunde en promoveerde op een onderwerp uit de theoretische informatica (compilerbouw). Daarna werkte ik als onderzoeker en docent op het gebied van de AI en de (Bayesiaanse) statistiek, waar ik het werk van de fysicus E.T. Jaynes (Probability Theory: the logic of science) en van Judea Pearl (Causality, The Book of Why) leerde kennen. Mijn colleges heetten Conversational Agents en Formele Analyse van de Natuurlijke Taal, waarover Louk eens opmerkte: “Als je de taal wilt formaliseren, moet je de hele mens formaliseren, dus dan ben je nog even bezig.”. We weten inmiddels hoe waar dit is. De conversational agents werden al gauw ’embodied conversational agents’ en robots kregen steeds meer menselijke trekken, nadat ook de niet-verbale gebaren werden ‘geformaliseerd’ (zie het ‘facework’ van de socioloog Erving Goffman). We bouwden virtuele verdachten die de rol van echte acteurs zouden overnemen in serious games voor politie-trainingen (Bruijnes 2016). We zijn echter nog niet klaar met ‘de constructie van de kunstmatige mens’.
Wanneer we met ChatGPT een gesprek voeren moeten we ‘de persoon achter het gordijn’ er nog bij denken. Ik werkte in diverse Europese onderzoekprojecten die alle als onderwerp hadden de interactie met, het gebruik en de interface van mens en intelligente machines. We ontwikkelden en evalueerden robots voor ouderenzorg. In het laatste project ontwikkelden en testen we een serious virtual reality game voor kinderen met diabetes om ze spelenderwijs te leren hun dagelijkse leven te managen. De notie spel is van belang voor de discussie over de zelfstandigheid van technologie en robot rechten in het bijzonder.
Louk promoveerde op de kwantiteit bij Aristoteles en Hegel die hij op een heel eigen manier met elkaar probeert te verzoenen. Hij schreef daarna zijn boek Beyond Structure. Fleischhacker wijst daarin op de neiging van filosofen tot mathematisme, de opvatting dat structureerbaarheid het wezen van de waarneembare werkelijkheid is en dat iets kennen betekent dat je het een structuur kunt geven en er een wiskundige model van kunt maken.
“The enterprise, of which this book is a report, consists of an attempt towards a systematic ‘deconstruction’ of mathematism.” Dit schrijft Louk Fleischhacker in het inleidende hoofdstuk van zijn Beyond Structure (1995) over de macht, en de grenzen van het mathematische denken.
Deconstructie
Beyond Structure is een poging tot ‘systematische deconstructie van het mathematisme’, waarbij Fleischhacker er op wijst dat deconstructie zelf ook een metafysische positie inhoudt, die niet impliciet mag blijven.
In hun artikel ‘ChatGPT: Deconstructing the Debate and Moving It Forward‘ proberen de auteurs Marc Coeckelbergh en David J. Gunkel het debat over de betekenis van ChatGPT vlot te trekken door een ‘deconstructie’ van oude metafysische tegenstellingen waaraan beide partijen vast zitten. Wat houdt deconstructie in?
Bij Derrida wijst ‘deconstructie’ op de poging de context-afhankelijke geschiedenis van de filosofische teksten te tonen. Deze teksten worden beschouwd als de sporen van gedachtenconstructies veeleer dan als de namen van transcendentale principes. De deconstructie van een denkwijze komt dus neer op het laten zien hoe deze tot stand is gekomen. (Fleischhacker, noot op pagina 17).
“Broadly speaking, deconstruction means here (and in this paper) that one questions the underlying philosophical assumptions and core concepts, rather than merely
engaging with the existing arguments.” (Coeckelbergh en Gunkel, 2023).
Dat bevragen van de onderliggende aannames gaat dus door middel van een herlezen en herinterpreteren van historische teksten. Een analyse van de historische momenten in de ontwikkeling van de wiskunde die uiteindelijke heeft geleid tot de informatietechnologie zal zowel een deconstructie van het mathematisme inhouden als een deconstructie van de klassieke metafysische tegenstellingen die het debat over die informatietechnologie beheersen. Bij Gunkel subject-object, maar vooral ding-robot-persoon. Fleischhacker gaat het erin Beyond Structure vooral om de grenzen van het wiskundig denken die tevens de grenzen van de ‘toepasbaarheid van de wiskunde’ en van de (informatie)technologie te markeren. Daarvoor moeten we diep duiken in de geschiedenis van het moderne westerse denken. Descartes, Leibnitz, Hume, Hegel, Frege en Wittgenstein, zijn onze belangrijkste gesprekspartners. Zij allen dachten vaak mathematisch. Descartes metafysica is wezenlijk mathematisch. Zijn dualisme wordt gekenmerkt door een strikte scheiding tussen twee substanties: het denkende ik en daar tegenover de werkelijkheid die wezenlijk uitgebreidheid is (res extensa).
De Nederlandse filosoof H. Pos noemt in het voorwoord van Het Vertoog over de Methode (1937), de Nederlandse vertaling van Discours de la Methode (1637), Descartes metafysica een mathematische metafysica. Maar ook Leibnitz metafysica heeft iets mathematisch. En bij Kant komen we uitspraken tegen die er op wijzen dat hij de hoeveelheid wiskunde in de natuurwetenschap van zijn tijd (met de Newtonse mechanica als paradigma) als maat zag voor haar kennisinhoud. Ook de moderne westerse filosofie na Kant kan zich maar met moeite aan het mathematische denken ontrekken, ook al beweren allerlei ‘postmoderne’ en ‘structuralistische’ opvattingen over kennis en taal zich bevrijdt te hebben van het Cartesianisme, het stricte mathematische dualisme.
De wiskundige stelt dat het zo en zo met de werkelijkheid gesteld is (“Die Welt ist alles was der Fall ist”) en keert nooit op zijn schreden terug. Iedere vorm van zelfreflectie van dit denken, waarin subject en object als relatie gedacht wordt, leidt tot paradoxen: het verzamelingbegrip kan niet als verzameling mathematisch worden uitgedrukt (Russel). Hegel probeert de mathematische fysica te begrijpen als adequate uitdrukking van het begrip van de natuur. De fysicus zelf doet dat namelijk niet. Hegel ziet de wezenlijke kenmerken van het mathematische denken en onderscheid het van het historische en filosofische denken, maar lijkt als systeembouwer toch niet geheel te ontkomen aan mathematisme. Ondertussen legt hij in zijn Logik wel de conceptuele basis voor het begrip dat vanaf de aanvang van de 20ste eeuw tot de dag van vandaag ons leven zou gaan beheersen: informatie: de uitdrukking van het kwalitatieve op kwantitatieve wijze. Ontkomt Gunkel aan de verleiding van het mathematische, technische denken? In hoeverre komt zijn project overeen met dat van Fleischhacker? Komt hij met een nieuwe metafysica?
Bij Louk vindt de mathematiek een wezenlijk grens in het leven zelf. De postmoderne filosofie vindt haar sleutelbegrip in de intersubjectiviteit: interactie van de persoonlijke, door de individuele achtergrond van het doorleefde leven, bepaalde perspectieven op de werkelijkheid. Bij Hegel gaat de techniek over in de relatie van man en vrouw (zie Jenaer Realphilosophie).
De eerste wetenschappers van de AI zagen het als hun doel een persoon te maken. Het is de moderne variant van een eeuwenoude traditie: de mens wil zelf op technische wijze een mens maken. Volgens Hollak is de automatie de uitwendige objectivatie van de technische idee als zodanig. Descartes godsidee (God is Causa sui) is de zelfprojectie van de autonoom denkende mens. De AI is het (voorlopige) eindprodukt van het technische project van de moderne mens dat uitgaat van het contrafactisch postulaat dat de mens een machine is, met als doel de verwerkelijking (implementatie) van een mathematische constructie, een formeel model van het (denk)gedrag van de mens. Dit is de sleutel tot het verstaan van het belang dat de theologen hechten aan de kunstmatige intelligentie: “God is dood en de techniek is zijn lijk”. De God als Causa sui van Descartes is de (projectie van) de moderne verlichte mens en deze probeeert hij in de robot te verwerkelijken.
Robot rechten?
De boodschap van Gunkel is dat we niet langer moeten wachten met het werken aan een antwoord op de vraag of de robot een morele agent is en in juridische zin rechten moet worden verleend. Hij is daarin niet de enige. Ook vanuit het Future of Life Institute van Max Tegmark horen we dit geluid. Er werd zelfs door verontruste wetenschappers en ethici voor een moratorium op de ontwikkeling van AI gepleit. De Europese Gemeenschap heeft regels opgesteld voor de Ethiek van de ontwikkeling van AI. En ook in de VS zijn wetten die betrekking hebben op de deelname van robots (delivery robots) en automatische auto’s aan het verkeer. Ook zijn er regels voor autonome wapensystemen. Kortom: de robots zijn al onder ons en er zijn al regels en wetten voor specifieke situaties waarin deze worden gebruikt. De vraag die Gunkel stelt gaat echter verder en is fundamenteler van aard. Het gaat Gunkel om de kwestie of de robot ‘een persoon in juridische zin’ is of niet.
De robot als social relatie en als cognitieve relatie
Een sleutel-begrip in Gunkels notie van de sociale robot is dat wat de robot is wordt bepaald door de wijze waarop we een relatie tot de robot uitoefenen. Ook Mark Coeckelbergh wijst daarop.
Gunkel spreekt van een ‘relational turn’ in ons denken over de relatie met de ander. Het is niet zo dat we verstandelijk redeneren vanuit de door ons eerste onderkende aanwezigheid van bepaalde eigenschappen (zoals het hebben van bewustzijn) of de ander tot onze morele cirkel behoort. Het is juist omgekeerd.
“In social situations, then, we always and already decide between who counts as morally significant and what does not and then retroactively justify these actions by “finding” the essential properties that we believe motivated this decision-making in the first place. Properties, therefore, are not the intrinsic prior condition for moral status. They are products of extrinsic social interactions with and in the face of others.” (David J. Gunkel, 2022)
In een uitvoerig review van Person, Thing, Robot door Abootaleb Saftari lezen we:
“Finally, the concept of ‘relation’ remains largely unexplored in Gunkel’s argument. It feels like a mystery, a “black box,“ with only a faint outline suggesting its social nature. This lack of clarity provides ground for further critique. One could argue that even if we agree with Gunkel’s relational perspective, our tendency to treat things as objects, to objectify them, might itself stem from our relational interactions with them.”
Dit is een belangrijk punt. Gunkel denkt vanuit het gebruik van de machine. Zijn opmerking dat de robot is wat het is in relatie tot de mens, heeft betrekking op deze gebruiksrelatie. De robot is een sociale agent. Ik ben zelf als lid van de groep Human Computer Interaction, waarin we conversational agents maakten, niet alleen bezig geweest met onderzoek naar de sociale relatie met de robot, maar vooral met de cognitieve mens-machine relatie. De relatie vanuit het perspectief van de maker gedacht. De mens heeft de machine bedacht. Het is een realisatie van de technische idee, door Hollak als volgt gedefinieerd.
De technische idee is die abstracte verstandsvorm waarin de mens zijn beheersing van de natuur door middel van een originele combinatie van haar krachten tot uitdrukking brengt.
Die technische idee heeft zich in de gescheidenis door interaktie daarmee ontwikkeld. Een ontwikkeling die ‘parallel’ loopt met de ontwikkeling in de relatie van de wiskunde tot de natuur. De informatietechnologie veronderstelt, en is uitdrukking van, de zelf-reflexieve meta-mathematica, de wiskunde van het wiskundig denken.
De machine, en de programmeerbare machine of automaat is een zelfreflexieve vorm van een machine, is een cognitief relatieve notie.
Het intentioneel correlaat
De Nederlandse filosoof Jan Hollak heeft in verschillende artikelen zijn gedachten over het fenomeen van de ‘denkende machine’ en de ‘bewuste machine’ met zijn lezers gedeeld. In zijn beroemde inaugurele rede Van Causa sui tot Automatie plaatst hij de volgende voetnoot.
“Wanneer hier voortdurend in verband met mechanismen van ‘reflectie’, ‘zelfreflectie’, etc. sprake is dan is daarmee vanzelfsprekend nooit het subjectieve act-leven van het menselijk denken bedoeld (machines hebben geen bewustzijn), maar steeds slechts zijn intentioneel correlaat” (In: Hollak en Platvoet, voetnoot op p. 185)
Hollak verwijst in deze voetnoot een hele boekenkast vol filosofieën waarin uitgegaan wordt van de mogelijkheid van het bestaan van de ‘denkende machine’ naar het rijk der fabelen.
In Meeting on neutral ground, a reflection on man-machine contest, zegt de wiskundige en logicus Albert Visser:
“After all, machine and program are intentional notions. So to understand the machine, we need to understand man.” (Albert Visser, 2020).
Om de machine te begrijpen moeten we de mens begrijpen, want machine is een intentioneel begrip.
Voor veel mensen is het echter helemaal niet zo ‘vanzelfsprekend’ dat de machine ‘geen bewustzijn heeft’. De term ‘intentioneel correlaat’ komt uit een stroming in de filosofie die niet zo populair is bij wetenschappers en filosofen. Het is een belangrijke notie, waar diverse filosofen hele boeken aan besteedden (Searle, 1983; Dennett).
Het gaat dus om begrip van begrip. De machine is uitdrukking van ons begrip en dat zouden we moeten begrijpen.
Het object van de intentionele act (bewustzijn is altijd bewustzijn vàn iets, we denken altijd iets, een gedachte), heet in de fenomenologische traditie het ‘intentioneel correlaat’ van de act. Als ik denk aan de lamp is het denkbeeld het intentioneel correlaat van mijn gedachte. We maken een onderscheid tussen de toestand van de lamp: hij is aan of uit, en de toestand van de lamp als representatie van de toestand van het technische systeem waarvan deze onderdeel is. De controlelamp van de schakelaar in de auto heeft een functie in een werkend systeem, in de auto, in een machine. De toestand ervan is een toestand zoals ik die begrijp: de lamp is aan of uit, als onderdeel van een systeem. Die toestand als toestand van een systeem is niet iets dat de lamp op zich eigen is. Die denken wij erbij. Voor wie niet bekend is met de technische constructie is de lamp slechts wat deze onmiddellijk in de ervaring is. Voor wie niet weet wat rekenen is bestaat de rekenmachine niet.
We kunnen de machine dus alleen in relatie tot de mens zinvol beschouwen omdat deze alleen in een cognitieve relatie tot de mens als machine bestaat. (Zoals de kriebels op papier alleen voor wie weet wat taal is woorden voorstellen.) Het wezenlijke van de machine is de technische idee, het concept.
We kunnen mens en machine wel onderscheiden, maar niet van elkaar scheiden. Zoals we de binnenkant en de buitenkant van een kopje wel kunnen onderscheiden, maar niet werkelijk van elkaar scheiden. Die horen bij elkaar als de twee relata van een relatie. Ze komen niet apart in werkelijkheid naast elkaar voor. Nu is het bij de mens-machine-relatie zo dat beide ook zelfstandigheid hebben. Ze komen buiten elkaar als ‘dingen’ in de werkelijkheid voor. De mens staat tegenover de machine en kan de machine bedienen via lichamelijk contact. Dat maakt dat veel mensen vergeten dat de machine alleen machine is in relatie tot de mens. Als we het over dat ding als machine hebben en het als machine gebruiken dan hebben we het over een cognitief gefundeerde relatie die in een materiële vorm is geobjectiveerd: het ding is uitdrukking, realisatie van een concept, een ontwerp. Zonder dat relatieve moment tot de mens die het ding heeft ontworpen is het ding geen machine, maar slechts een fysisch proces zonder betekenis.
Ik heb er dan ook bezwaar tegen wanneer de krantekoppen weer eens vermelden dat “AI beter op een bepaalde taak X presteert dan de menselijk expert.” Of dat “de computer betere beslissingen neemt dan de mens.”
De computer kan helemaal geen beslissingen nemen, ze werkt op basis van combinaties van logische electronische circuits waarvan de functie is de representatie van een logische denkregel in een mathematische vorm: als A dan B anders C. Het is van belang om vrijheid niet te vereenzelvigen met keuzevrijheid. De machine is geprogrammeerd om een keuze te maken, maar is niet vrij in het bepalen van de betekenis, waarde, van de factoren die de keuze bepalen. De drone kent de waarde van zijn doel, de dood en het leven van de vijand, niet.
Over het gebruik van de term ‘intentioneel correlaat’.
De vergissing die men vaak maakt is de toedracht van een machine alleen inhoudelijk te nemen (‘materialiter’) en niet ook naar de vorm (als toedracht, ‘formaliter’). Het lampje op het dashboard is in een toestand aan of uit, die niet alleen maar zegt of het lamp zelf brandt of niet (dat is, zoals Austin in Other Minds terecht opmerkt, een ‘absurde gedachte’) het is een toestand die verwijst naar een technische ontwerp, een systeem, waarin het ‘aan’ of ‘uit’ zijn een functie heeft. Het is bijvoorbeeld een schakelaar die als interface werkt voor de gebruiker om de airco te controleren.
De morele status van de robot
De sociale, praktische relatie met de robot is voor Gunkel het aanknopingspunt voor de ethische, morele en juridische status van de robot. De vraag is of de robot ooit verantwoordelijkheid zal kunnen nemen moet m.i. met een ferm nee worden beantwoordt. Dat neemt niet weg dat de robot die deelneemt aan het sociale verkeer ‘zich moet houden’ aan sociale regels. Het ‘gedrag’ van de robot kan wel oorzaak zijn van een ongeval, maar de robot kan niet aansprakelijk gesteld worden voor de gevolgen ervan. Het is vanwege de technische cognitief intentionele wijze van zijn van de robot dat de robot geen moreel subject is en ook niet in juridische zin als persoon kan worden aangemerkt. De robot kan aan het feit dat dieren of organisaties bepaalde rechten hebben geen rechten ontlenen. Ze passen als technisch ontwerp niet in deze indeling van levende organismen.
Wat de deelname van de robot aan het sociale verkeer (arbeid, spel) betreft, moeten we onderscheiden, de interne regels van dit verkeer waaraan de robot zich moeten houden, en de externe regels die bepalen onder welke voorwaarden een robot als ‘autonome’ speler aan het ‘spel’ mag meedoen. Die beslissing zal uiteindelijk een mens moeten nemen en kan niet aan een robot worden overgelaten. Maar misschien dat Gunkel van mening is dat dit in de toekomst niet uitgesloten is en dat de robot dus ooit eens zelf beslist of deze aan bepaalde spelen mee kan en zal doen.
Het is één van de kenmerken van het mathematisme het leven als een (serieus) spel, of levensvorm te zien en de taal zuiver functioneel op te vatten: de betekenis van de woorden wordt bepaald door het gebruik ervan in een taalspel die hoort bij een levensvorm. We zijn nu in de gedachtenwereld van Wittgenstein beland. Zijn strikte onderscheid tussen Sagen en Zeigen is teken van zijn mathematische houding, een erfenis van Frege. De taal louter functioneel, als instrument, zien en het verwoordingskarakter van de taal uit het zicht verliezen, dat is kenmerkend voor de idee die ten grondslag ligt aan die opvattingen die de AI machine in de vorm van ChatGPT zien als een werkelijk intelligente, denkende machine, die bewustzijn zou hebben. Het motief is dat ze immers taal gebruiken en de taal bij de mens de uitdrukking is van het denken als denken. Maar de machine ‘gebruikt taal’ niet zoals de mens taal gebruikt. De mens tracht de werkelijkheid zoals hij deze ervaart te verwoorden. Machines kunnen dat niet. Ze zijn weerslag van het historische produkt van die pogingen tot verwoording, zonder dat historische in ogenschouw te nemen, en als historisch te begrijpen.
Cybernetica en de vraag naar de eigenaar van AI
Een onderwerp waar Gunkel veel aandacht aan besteedt is de relatie tussen tekst en auteur. HIj keert dan terug naar teksten van Plato en de discussie over de relatie tussen gesproken en geschreven taal. In de laatste zou de auteur niet aanwezig zijn. Hij kan geen antwoord geven op vragen over de tekst. De klassieke notie ‘auteur’ zou door het fenomeen van de taalgenererende machine aan een revisie (deconstructie) moeten worden onderworpen. Stakingen van auteurs en artiesten getuigen van de onrust die programmas als ChatGPT te weeg brengen: men is bang zijn baan kwijt te raken door inzet van de AI. Zoals de thuiswerkende spinners en wevers zich verweerden tegen de komst van de spinning Jenny en de fabrieksmatige produktie van geweven stoffen. Anderen zien er nieuwe uitdagingen in. Er is geen houden aan de ontwikkeling van de techniek. We zullen ermee moeten leren leven. Totdat de wal het schip keert.

Auteurschap is een vorm van intellectueel eigendom. In onze super-individualistische samenleving (de VS schijnt nog erger te zijn dan Europa) is dit direct gekoppeld aan eigen identiteit, inkomen en toekomst. Die informatie-technologie gooit ook die structuur overhoop. Wat bedoel ik daarmee?
Als we een wasmachine kopen dan kopen we een af product. De machine werkt na vijf jaar gebruik nog net zo als toen we hem voor het eerst gebruikten. De machine kan een keer kapot gaan. Dan wordt deze gerepareerd en hij gaat weer een jaartje mee. De fabriek ontvangt feedback van reparateurs en reviews van gebruikers waarmee het zijn voordeel doet bij het ontwikkelen van een verbeterde versie van de machine. In de wereld van de ICT gaat het ook zo, maar ook anders. OpenAI heeft met ChatGPT een product aan de gebruikers aangeboden dat een ‘zelflerende’ chatbox is. Het product is niet af. Het is een minimale realisatie van een concept dat zich in en door het gebruik ontwikkelt. De gebruikers zijn medeontwikkelaar van het systeem. De dialogen met de machine worden opgeslagen en dienen als nieuw materiaal waarvan het systeem leert. De ontwikkellus: ontwerp, implementeer, test, herontwerp, gebruik en herontwerp is bij open AI kortgesloten.
In een dialoog kunnen we verschillende virtuele dialoog ‘kanalen’ onderscheiden die elk hun eigen taalgebruik, hun eigen toon, hebben. Over het primaire kanaal, worden vragen gesteld en antwoorden gegeven. Daarnaast is er een feedback kanaal waarover de informatie gestuurd wordt die betrekking heeft op de wijze waarop vraag en antwoord door de sprekers worden gewaardeerd (o.a. hedges). Feedback over wat de ontvanger van een antwoord vindt is leerzaam voor de vragensteller. Het systeem luistert als het ware zelf mee naar zijn gesprekken en leert daarvan, zoals mensen dat ook doen in een gesprek. We zien dat in deze fase van de technische ontwikkeling ontwerp, evaluatie, feedback en gebruik van het systeem als aspecten van een dialoog door interaktie met het systeem gerealiseerd worden. In de open informatietechnologie van ChatGPT zijn de sociale interaktie relatie en de cognitieve relatie van de machine met elkaar verweven geworden. In de machine is het begrip van de sociale interaktie door middel van taal expliciet op technische wijze gerealiseerd.
Wie is de auteur van het gesprek? Wie kan de rechten claimen op de kennis die in het gesprek naar boven komt? Het zijn onderwerpen die de sociaal-economische structuren van de samenleving ongetwijfeld zullen veranderen.
Death of an Author
In his post “The Future of Writing Is a Lot Like Hip-Hop” in The Atlantic of 9 may 2023 Stephen Marche reports his findings during his cooperation with ChatGPT in writing their novel Death of an Author. In that report he comments on how users ask ChatGPT things. “Quite quickly, I figured out that if you want an AI to imitate Raymond Chandler, the last thing you should do is ask it to write like Raymond Chandler.” Why not? Because “Raymond Chandler, after all, was not trying to write like Raymond Chandler.”
I believe this refers to the core insight why AI is not human. It behaves like humans. At least AI tries to behave like them. But humans do not try to behave like human beings. They even do not behave ‘like human beings’.
Wat ik bedoel is dat we de reconstructie als reconstructie moeten zien en niet als het orgineel. Het origineel als origineel verdwijnt namelijk in en door de formalisering, door de reconstructie. De mens is geen ‘sociale agent’. Dan zouden we de mens vereenzelvigen met een bepaalde historische vorm ervan. Dat is de kern van de discussie over allerlei vormen van bias (gender, culture) van open AI systemen zoals ChatGPT.
David Gunkel heeft met zijn waardevolle werk, zijn publicaties en daar is zijn open houding naar anderen toe, de bereidheid om met anderen het gesprek aan te gaan over zijn ideeën, een kenmerk van, een belangrijke bijdrage geleverd aan de ontwikkeling van het begrip van de technologie. Daardoor kunnen we een stapje verder komen in onze verhouding daartoe, tot ons zelf en de ander.
Ik ben David Gunkel dankbaar voor zijn open mind.
Bronnen en noten
(*) Voetnoot:
De Nederlandse bundel met essays van Emmanuel Levinas heeft als titel Het Menselijk Gelaat. Vaak worden ‘gelaat’ en ‘gezicht’ als synoniemen beschouwd. Het Engelse ‘face’ is zowel vertaling van het Nederlandse ‘gezicht’ als van het Nederlandse ‘gelaat’. Ik voel een verschil dat in de Engelse vertaling verloren gaat. Het Franse ‘visage’ heeft het zelfde probleem. Je kunt wel een gezicht tekenen, een gezicht afbeelden en een robot een gezicht geven, maar niet een gelaat. Het woord ‘inter-face’ (ook ‘user inter-face’) dat staat voor de component van een systeem dat zorgt voor de technische interaktie tussen gebruiker en systeem bevat het woord ‘face’. Het is hoe het instrument zich naar de gebruiker toont. Het biedt zicht op de toestand van het proces en omvat ook de hendels en knoppen voor het besturen van het systeem. De geformaliseerde ‘natuurlijke taal’ is de inter-face van de chat systemen. Alleen de mens heeft een gelaat in de zin van Levinas. Erving Goffmans sociologische studies On Face-work hebben als onderwerp ‘politeness’, respect voor de ander in sociale interactie en gaan over hoe je een ‘agent’ moet maken zo dat deze kan deelnemen aan het sociale verkeer.
Bruijnes, Merijn (2016). Believable suspect agents: response and interpersonal style selection for an artificial suspect. PhD Thesis University of Twente (2026).
In samenwerking met de Politie Academie analyseerden we opnames van politieverhoren met echte of gespeelde verdachten om hun interactief gedrag te modelleren. We hebben de computermodellen gebruikt om ‘virtuele verdachten’ te synthetiseren die echte menselijke acteurs zouden kunnen vervangen. We concentreerden ons op de rol van ‘face’ en de effecten van ‘face’-bedreigende dialooghandelingen en andere factoren, zoals karakter van de verdacht, op de dynamiek van het verhoor.
David J. Chalmers (2023). Could a large language model be conscious? Within the next decade, we may well have systems that are serious candidates for consciousness. Boston Review, 9 Augustus 2023.
Coeckelbergh, M., and Gunkel, D. 2023. ‘ChatGPT: Deconstructing the Debate and Moving It Forward‘ in AI & Society. Online first 21 June 2023.
Maarten Coolen (1992). De machine voorbij: over het zelfbegrip van de mens in het tijdperk van de informatietechniek. Boom Meppel, Amsterdam, 1992.
Maarten Coolen (1987). Philosophical Anthropology and the Problem of Responsibility in Technology. In P. T. Durbin (Ed.), Philosophy and Technology, Vol. 3: Technology and Responsibility (pp. 41-65). Dordrecht: Reidel.
“Information technology must be conceived of as the objectification of the modern self-concept of man as an autonomous being.”
Fleischhacker, Louk E. (1995). Beyond structure; the power and limitations of mathematical thought in common sense, science and philosophy. Peter Lang Europäischer Verlag der Wissenschaften, Frankfurt am Main, 1995.
Frege, Gottlob (1892). Uber Sinn und Bedeutung. Opgenomen in: Gottlob Frege: Funktion, Begriff, Bedeutung, Uitgave: Vandenhoeck & Ruprecht in Gottingen, pp. 40-65, 1975.
Frege voert de term ‘Gedanke’ in voor de inhoud van een oordeelszin: ”Ein solcher Satz enthält einen Gedanken.” “Ich verstehe unter Gedanke nicht das subjektive Tun des Denkens, sondern dessen objektiven Inhalt, der fähig ist, gemeinsames Eigentum von vielen zu sein.” (Voetnoot p. 46).
“Warum genügt uns der Gedanke nicht? Weil und soweit es uns auf seinen Wahrheitswert ankommt. Nicht immer ist dies der Fall. Beim Anhören eines Epos z.B. fesselen uns neben dem Wohlklange der Sprache allein der Sinn der Sätze und die davon erweckten Vorstellungen und Gefühle. Mit der Frage nach der Wahrheit würden wir der Kunstgenuss verlassen und uns einer wissenschaftlichen Betrachtung zuwenden.” (Frege, Über Sinn und Bedeutung, 1892, p. 48)
Of het ons “gleichgultig” is dat ChatGPT ons een werkelijkheid voorstelt die waar is of niet, hangt daarvan af of we deze machine als kunstwerk dan wel ‘wetenschappelijk’ beschouwen.
Goffman, Erving (1967). Interaction Rituals: essays on face-to-face behavior. 1967.
Gunkel, David J. (2012). The machine question: Critical perspectives on AI, robots, and ethics. Cambridge: MIT Press.
Gunkel, David J. (2014). The Rights of Machines–Caring for Robotic Care Givers. Presented at AISB 2014. Chapter in the Intelligent Systems, Control and Automation: Science and Engineering book series (ISCA,volume 74).
Gunkel, David J. (2017). The Other Question: Can and Should Robots have Rights? In: Ethics and Information Technology, 2017.
Gunkel, David J. (2023). Person, Thing, Robot A Moral and Legal Ontology for the 21st Century and Beyond, MIT Press, Open acces, September 2023.
“Ultimately, then, this is not really about robots, AI systems, and other artifacts. It is about us. It is about the moral and legal institutions that we have fabricated to make sense of Things. And it is with the robot— who plays the role of or occupies the place of a kind of spokesperson for Things— that we are now called to take responsibility for this privileged situation and circumstance.” (p. 184)
Georg W.F. Hegel (1969). Jenaer Realphilosophie – Vorlesungsmanuskripte zur Philosophie der Natur und des Geistes von 1805-1806. Uitgave Johannes Hoffmeister, Verlag von Felix Meinder, Hamburg, 1969.
Heidegger, Martin (1977). The Question Concerning Technology and Other Essays. Trans. William Lovitt. New York: Harper & Row (1977).
Technologie is niet techniek. Het is een vorm van ‘Entbergen’. Mit “entbergen” ist gemeint: etwas hervorbringen oder etwas zum Vorschein bringen.
Hollak, J.H.A. (1968). Betrachtungen über das Wesen der heutigen technik. Kerygma und Mythos VI Band III, Theologische Forschung 44, 1968, Hamburg, Evangelischer Verlag, pp 50-73. Dit is de vertaling van het Italiaanse artikel (Hollak 1964) Ook opgenomen in de bundel Denken als bestaan, het werk van Jan Hollak (Hollak en Platvoet, 2010).
Hollak, J.H.A. (1964). Considerazioni sulla natural della tecnica odierna, l’uomo e la cirbernetica nel quadro delle filosofia sociologica, Tecnica e casistica, Archivo di filosofia, 1/2, Padova, 1964 pp. 121-146, discussie pp 147-152.
Hollak, Jan en Wim Platvoet (red.) 2010. Denken als bestaan: Het werk van Jan Hollak. Uitgeverij DAMON, Budel, 2010. In deze bundel het transcript van de opname van het Afscheidscollege over de hypothetische samenleving door Jan Hollak gehouden in Nijmegen op 21 februari 1986. Ook de inaugurele rede Van Causa sui tot Automatie is hierin opgenomen.
Volgens Hollak wordt alles tegenwoordig functioneel opgevat. “Het aanvaarden van een feitelijke toedracht is er niet meer bij.” (p. 436). Alles wat we kunnen observeren is maar zo onder bepaalde condities en hypothesen, die we zo weer kunnen veranderen. Feiten zijn functie-waarden van bepaalde aannames. Ook het tegendeel van een feitelijke toedracht wordt als mogelijkheid gezien. Terwijl als het een feit is dat vandaag de zon is opgegaan het toch niet meer zo kan zijn dat deze niet is opgegaan.
Ook al onze ‘leefverhoudingen’ worden volgens Hollak door de moderne wetenschap tot puur hypothetische, logisch mogelijke ietsen gemaakt. Het is niet zo dat onze wetenschap ons leven verheldert. Dezelfde aanklacht tegen de wetenschap zien we bij Husserl in zijn Krises der Europäischen Wissenschaften.
Levinas, E. (1987). Collected Philosophical Papers. Trans. Alphonso Lingis. Dordrecht: Martinus Nijhoff.
Emmanuel Levinas (1971). Het menselijk gelaat. Vertaald en Ingeleid door O. de Nobel en A. Peperzak. Ambo, 1969, Bilthoven. Hierin: Betekenis en zin, pp.152-191. (Vertaling van La signification et le sens. in: Revue de Métaphysique et de Morale 69 (1964), 125-156.)
Levinas, E (1951). L’ontologie est-elle fondamentale? In: Revue de Métaphysique et de Morale 56 (1951) 88-98.
“Kunnen de dingen een gelaat krijgen? Is de kunst niet een aktiviteit die de dingen een gezicht verleent?” Deze vraag stelt Levinas in zijn opstel “Is de ontologie fundamenteel?” Geheel in de geest van Levinas moet het antwoord ontkennend zijn. Want wie kan de dingen die van zichzelf geen gelaat hebben een gelaat geven? Het gelaat is niet iets dat na de ontmoeting met de ander aan ons verschijnt. Een gelaat geef je niet. Alsof we daar de macht toe hebben! Het gelaat betekent de weerstand tegen de macht van de technologie, die de dingen een gezicht wil verlenen ten behoeve van het functioneren van het bedrog. Want zonder de suggestie iets voor de mens te betekenen werkt de machine niet.
Toivakainen, Niklas (2015). Machines and the face of ethics. In: Ethics and Information Technology, Springer, 2015.
Ik ben het eens met Niklas Toivakainen waar hij zegt “that understanding our ethical relationship to artificial things cannot be detached from a critical examination of what moral dynamics drives our technological aspirations.” (Toivakainen, 2015).
Albert Visser (2020). Meeting on neutral ground. A reflection on man-machine contests. In: Studia Semiotyczne (Semiotic Studies) t. XXXIV, nr. 1 (2020), pp. 279-294.