Heeft AI bewustzijn? Ofwel: Kunnen de dingen een gelaat(*) krijgen?

Dat onze wetenschap fundamenteel hypothetisch is, daar werd ik onlangs weer eens op gewezen bij het lezen van een wetenschappelijk artikel over de kwestie of AI bewustzijn heeft. We hebben de neiging om bij het presenteren van onze bevindingen de aannames waar we vanuit zijn gegaan te vergeten. Van wetenschappers verwacht je dat ze objectieve resultaten presenteren, dat wil zeggen: dat ze hun conclusie presenteren als conclusie, dat is: in relatie tot de gemaakte vooronderstellingen en de methodes van het onderzoek. Populaire presentaties laten die relatie meestal weg omdat dat te ingewikkeld zou worden voor de oppervlakkige lezer. Dit leidt tot artikelen met koppen als Neuro-wetenschappers zijn overtuigd: AI met bewustzijn in de toekomst wellicht mogelijk.

Our Mathematical Universe van de fysicus en mede-oprichter van het Future of Life instituut Max Tegmark is een recent goed voorbeeld van wat hypothetische wetenschapsbeoefening inhoudt (Tegmark, 2014).

Tegmarks zocht een antwoord op de vraag: “Hoe komt het dat de wiskunde overal toepasbaar is?” Om die vraag te beantwoorden gaat hij uit van de Externe Realiteit Hypothese (ERH). Die luidt: There exists a physical reality that is independent of man. Op basis van de moderne fysica, van kwantumtheorieën tot kosmologieën, laat Tegmark zien hoe dat ‘ons universum’ een wiskundige structuur is (niet heeft, maar is). En dat is: inclusief de levensverschijnselen. Tegmark laat zien hoe deze conclusie volgt uit de hypothese. Het probleem is nog, zoals MT aan het eind van het boek opmerkt, dat we ons zelf als individuen niet kunnen herkennen in dit universum, ook al bevat het ons bewustzijn en onze levensloop in de vorm van complexe informatiestructuren. Kortom: ons universum is een mathematische structuur indien we afzien van de relatie die wij als bewust, levend en kennend subject met het universum hebben en daarmee afzien van het feit dat wij en de dingen om ons heen daarin hier en nu een plaats hebben. Dat is zoiets als: “als ik maar trap gaat mijn fiets vanzelf”, een uitspraak van mijn ome Jan toen zijn vrouw hem aanraadde een auto aan te schaffen omdat die vanzelf ging.

Tegmark presenteert een moderne variant van de strict Cartesiaanse, mathematische, scheiding tussen bewustzijn en denken enerzijds en de als wiskundige structuur gedachte ‘externe’ werkelijkheid anderzijds. Tegmarks Mathematisch Universum is een gigantische intelligente informatiemachine voorgesteld als een multidimensionale Hilbertruimte waarin de trajectorieën staan voor alle op de tijdlijnen uiteengelegde mogelijke informatieverwerkende processen. Daarin komen wij wel ergens voor, maar we kunnen ons niet identificeren. Daarvoor zouden we de namen moeten introduceren waarmee we de dingen in onze echte wereld aanwijzen. En dat is in strijd met de hypothese. Het aangewezene en benoemde wordt gemodelleerd niet het werkelijk benoemen en aanwijzen. Een krantenkop dat Tegmarks onderzoek samenvat zou kunnen luiden: Fysicus Max Tegmark toont aan: ons universum is mathematisch.

Dat zou dan overeenkomen met de krantenkop: Ook fietsen gaan vanzelf.

De hedendaagse fysicus is, anders dan Descartes, zich bewust van het hypothetische en mathematische karakter van zijn wetenschap. Hij drukt zijn mathematiserende houding tegenover de werkelijkheid expliciet uit in de vorm van een hypothese. Bij Tegmark is dat overduidelijk: zijn Externe Realiteit Hypothese drukt expliciet de strikte scheiding uit tussen de beide Cartesiaanse substanties: res cogitans en res extensa. Maar, het gevolg ervan dat we ons als levende individuen niet in zijn universum herkennen wordt door hem niet als gevolg van de hypothese gezien. Tegmark acht het heel wel mogelijk dat dit in de toekomst wel het geval zal zijn. Een toekomst die al in zijn Mathematisch Universum aanwezig moet zijn, we weten alleen niet welke toekomst het is.

Misschien moeten we de filosofie van de Verlichting vanaf zeg maar Descartes’ twijfelexperiment en zijn mathematistische metafysica nog maar eens grondig opnieuw hernemen. Nu, met de ervaringen die de wetenschappen en technologie ons hebben gebracht.

Ook in het artikel Consciousness in Artificial Intelligence: Insights from the Science of Consciousness dat onlangs in het arXiv preprint repository verscheen (2308.08708) gaan de auteurs uit van een expliciet gestelde hypothese. Het gaat in dit artikel over de vraag of AI bewustzijn heeft of kan hebben. Onder de negentien auteurs zijn neurowetenschappers, cognitiewetenschappers, computerwetenschappers en filosofen. De vraag of AI bewustzijn heeft, of misschien beter: of we een AI systeem als een bewust wezen moeten beschouwen, is weer aktueel nu kunstmatige intelligente ‘machines’ steeds beter in staat zijn aktiviteiten te verrichten waarvan sommigen vinden of vermoeden dat ze die alleen kunnen wanneer er sprake is van bewustzijn. Sociale robots worden door sommigen als ‘levenspartners’ beschouwd en we voeren geanimeerde gesprekken met AI programma’s zoals ChatGPT.

Maar hoe weten we of deze systemen werkelijk ‘bewustzijn hebben’? Hoe kunnen we dit vermoeden bevestigen dan wel ontkennen? Dat iemand een schreeuw van pijn produceert nadat we hem op de tenen zijn gaan staan, dat zien we meestal als indicatie van de aanwezigheid van gevoel en bewustzijn. Maar Descartes stelde al (in zijn Vertoog over de Methode, 1637/1937) dat het heel goed mogelijk is een mechanisme te maken dat hetzelfde gedrag vertoont, terwijl zo’n mechanisme volgens zijn metafysica geen bewustzijn (ziel) heeft, zoals een mens. Ook in het gedrag van het ‘gevoelige plantje’ “kruidje-roer-me-niet” (mimosa pudica) dat bij aanraking zijn gevingerde bladeren samentrekt zien we een schaduw van bewustzijn of gevoel. Maar zijn we hier wel getuige van een echt bewustzijn? Descartes wilde graag aantonen dat ook dit gedrag een mechanistische verklaring heeft. Helaas kwam het enige zaadje dat hij van zijn vriend, pater Mersenne, vanuit Parijs kreeg toegestuurd, niet op.

Het zijn vooral AI-wetenschappers, cognitie-wetenschappers en ‘filosofen van de geest’ (philosophers of mind) die zich met hernieuwde belangstelling met het onderzoek naar bewustzijn van AI bezig houden. Waarbij bewustzijn voor ‘subjective experience’ staat, een term die verder niet verhelderd wordt. De vraag is relevant, zo stellen de auteurs, nu we steeds vaker met AI te maken hebben en we ons nu eenmaal op andere wijze moreel verhouden tot entiteiten die geen bewustzijn hebben (dingen) dan tot wezens waarvan we zeker menen te weten dat ze wel bewustzijn hebben (zoals dieren, in het bijzonder mensen). Moraliteit en bewustzijn gaan onverbrekelijk samen.

De confrontatie met een dier waarvan we ons bewust zijn dat het om een bewustzijn gaat, kent een moreel aspect. Dat wil niet zeggen dat bepaald gedrag jegens het dier zonder meer is geboden of verboden. Het wil zeggen dat we daarmee in een morele situatie zitten waarin morele kwesties zich aan dienen. Of we willen of niet. Het gaat dan om de waarde die het dier zelf heeft. Niet als eigendom van iemand. Als zijnde eigendom van iemand moeten we ook respect hebben voor niet-levende zaken, zoals een auto of een lantaarnpaal. We respecteren dan een wezenlijk morele categorie: de eigendom, die aan het moreel subject, de persoon is gebonden. Moraliteit is aan de orde zodra het besef ‘met een bewustzijn te maken te hebben’ aanwezig is.

De vraag naar bewustzijn van AI is dus relevant voor de vraag of AI tot het morele domein behoort, of kan behoren. Maar om wiens bewustzijn gaat het eigenlijk? Als we ons bewust zijn van het feit dat deze auto van iemand is dan gaan we daar anders mee om dan wanneer deze ons toebehoort. De auto is zich niet bewust van deze eigendomsrelatie. Bij de morele ontmoeting met een dier zijn we ons bewust van het bewuste levend zijn van het dier. Wat dit betekent voor het belang van de resultaten van (experimenteel) wetenschappelijk onderzoek voor de praktijk, op die kwestie gaat het artikel niet in. Ik kom hier verderop in mijn commentaar nog op terug.

Het artikel presenteert op basis van neuro-wetenschappelijk onderzoek een checklist van bewustzijnsindicatoren, eigenschappen waaraan een entiteit moet beantwoorden opdat er een kans is op de aanwezigheid van bewustzijn. Het team heeft onderzocht of huidige AI systemen voldoen aan genoeg indicatoren om te kunnen stellen dat er van bewustzijn sprake is.

Computationeel Functionalisme als werkhypothese

Als werkhypothese zijn de auteurs uitgegaan van de stelling dat het voor bewustzijn noodzakelijk en voldoende is dat het systeem het juiste soort van berekeningen maakt (“the thesis that performing computations of the right kind is necessary and sufficient for consciousness”). Het gaat er dus om hoe een systeem informatie verwerkt en niet om wat voor materiaal daarvoor wordt gebruikt. Deze hypothese genoemd ‘computationeel functionalisme’ wordt vaak aangenomen door philosophers of mind, maar staat sinds jaar en dag ook onder felle kritiek (o.a van Hubert Dreyfus, John Searle, die zich baseren op werk van o.a. Heidegger en Merleau-Ponty. Zie ook het werk van Maarten Coolen, De Machine Voorbij)

Bijvoorbeeld wordt ‘self-attention’ in deze doctrine gedefinieerd als een “process in AI in which information about multiple input tokens is integrated through pairwise interactions between functional units”.

Een tweede uitgangspunt is dat neuro-wetenschappelijke theorieën over bewustzijn functies hebben opgeleverd die noodzakelijke en voldoende indicatoren zijn voor de aanwezigheid van bewustzijn. Deze functies of vergelijkbare zouden vanwege de hypothese ook toepasbaar zijn op AI systemen. Er zijn veel theorieën over bewustzijn. Uit elk van de belangrijkste theorieën zijn een aantal indicatorfuncties genomen. (Zie onderstaande tabel). Het idee is dat naarmate een systeem aan meer van deze functies voldoet des te groter is de kans op bewustzijn. Zo lijkt het onderzoek dus een (voorlopige) operationele definitie op te leveren voor de kans dat een systeem over bewustzijn beschikt. Waarbij bewustzijn in termen van een aantal functionaliteiten is vastgelegd.

Een alternatieve methode van onderzoek zou zijn om het gedrag van AI systemen te onderzoeken op de aanwezigheid van bewustzijn door er mee te interakteren. Maar, zo stellen de auteurs, AI systemen zoals ChatGPT zijn erg goed in het simuleren van menselijk gedrag, daarom is zo’n gedragstest geen goede test op aanwezigheid van bewustzijn. In hun conclusie merken ze nog op dat ze niet uitsluiten dat een beslissende gedragstest in de toekomst mogelijk is.

Het testen van een AI systeem op de aanwezigheid van bewustzijn komt er op neer voor elk van de theoretische modellen uit de tabel te analyseren of het AI systeem dit geimplementeerd heeft. Bijvoorbeeld, volgens de Global Workspace Theory zou een bewust systeem een modulaire opbouw moeten hebben waardoor het verschillende taken parallel kan uitvoeren, maar waarbij er ook sprake is van het verdelen van de schaarse aandacht over de te verrichten taken. Typische functies die we bij mensen ook tegen komen en die gezien worden als bewustzijnsindicatoren.

Het onderzoek “suggereert” dat geen van de geteste AI systemen bewustzijn heeft. (“This work does not suggest that any existing AI system is a strong candidate for consciousness.”) De auteurs zien echter geen barrières die de verwerkelijking van bewuste AI systemen in de toekomst in de weg zouden kunnen staan.

Wat is de waarde van dit onderzoek voor de praktijk?

Een eerlijke samenvatting van dit onderzoek zou ongeveer zo luiden.

Onder de aanname dat a) mens en machine beide informatieverwerkende systemen zijn en b) dat verschillende neurologisch onderzoeken (deels disjuncte) verzamelingen van functies hebben geïdentificeerd die bij de mens als indicatie van bewustzijnsprocessen beschouwd kunnen worden, kunnen we door middel van een analyse van de inwendige software en hardware-structuur van AI-systemen (‘the workings of AI systems’) voor elk van deze indicatorfuncties testen of deze geimplementeerd zijn. Wanneer dit voor voldoende van deze functies het geval is hebben we derhalve een aanwijzing dat er bewustzijn aanwezig is.

Deze wetenschappelijke conclusies zijn, zoals gezegd, belast door het hypothetische karakter van het onderzoek. Als mens en machine als informatieverwerkende machines worden beschouwd, dan zijn de eventuele verschillen er tussen te beschrijven in termen van verschillen in complexiteit en organisatie van geimplementeerde algoritmes en data-structuren. En dat is wat dit onderzoek heeft onderzocht: zijn er dergelijke verschillen, waarbij gekeken wordt naar die functies die met bewustzijn te maken hebben. Of er werkelijk van bewustzijn sprake is wordt daarmee afhankelijk gemaakt van het voorkomen van bepaalde mathematische (recursieve en/of reflexieve) structuren die specifieke functionaliteiten, leergedrag, interaktie en aanpassen aan de omgeving, ondersteunen.

AI en ethiek

Wat kan de betekenis van dit soort hypothetische bevindingen zijn voor de wijze waarop we ons moreel ten opzichte van AI gedragen? Ik verwacht dat het hiervoor van nul en generlei waarde en betekenis is. Dat heeft alles te maken met het niet-hypothetische karakter van de morele ontmoeting met de ander.

Over de ethische kant van het onderzoek naar bewuste AI systemen merken de auteurs op dat dit goed is, maar dat het wel eens tot het maken van een bewust AI systeem zou kunnen leiden. En dat is niet zonder risico’s.

“On balance, we believe that research to better understand the mechanisms which might underlie consciousness in AI is beneficial. However, research on this topic runs the risk of building (or enabling others to build) a conscious AI system, which should not be done lightly. Mitigating this kind of risk should be carefully weighed against the value of better understanding consciousness in AI.”

Het niet vaststellen of een AI-systeem bewust is geworden, zou belangrijke morele implicaties hebben. Als iets als ‘bewust’ is bestempeld, volgens co-auteur Megan Peters, neurowetenschapper aan de Universiteit van Californië, “verandert dat veel aan hoe wij als mensen vinden dat die entiteit moet worden behandeld”.

De auteurs gaan verder niet in op de aard van de risico’s van een bewust AI systeem. Ik ben zelf van mening dat het risico van AI niet zit in het feit dat deze uit zichzelf een bedreiging zouden zijn voor de mens, maar in het feit dat mensen deze systemen capaciteiten toekennen die ze helemaal niet hebben en ze verantwoordelijkheden toewijzen die helemaal niet past bij het feit dat het uiteindelijk slechts om gereedschap gaat, hoe slim ook bedacht. Een mening die ik deel met o,a, de filosoof D.C. Dennett en AI-onderzoeker uit het veld Timnit Gabru, die bij Google ontslagen werd vanwege haar bijdrage aan het ‘stochastic parrots’ artikel, waarin ze kritische kanttekeningen plaatst bij de ontwikkeling en het gebruik van grote taal-modellen (LLMs), de modellen waarop o.a. ChatGPT gebaseerd is.

Met hun onderzoek dragen de negentien auteurs bij aan de mythe van de mogelijkheid van bewuste AI. Het zou goed zijn wanneer de auteurs meer aandacht zouden besteden aan het fundamenteel hypothetische karakter van hun onderzoek en daarmee aan de betrekkelijkheid van de waarde van hun resultaten. Ze zouden op basis van hun wetenschappelijke en technische kennis een bijdrage kunnen leveren aan een meer realistischer kijk op AI en daarmee aan een meer verantwoord gebruik ervan in de samenleving. Voor een kritisch onderzoek naar de betekenis van AI is het noodzakelijk filosofie niet met hypothetische wetenschap te verwarren.

Ons gedrag ten opzichte van anderen (dingen, machines, personen) wordt niet primair bepaald door wetenschappelijk ondersteunde cognitieve regels en wetten, maar door een emotionele en morele relatie die situationeel bepaald is. Onze cognitieve, verstandelijke, relatie met technologie wordt bepaald door de kennis die we bij het maken en programmeren van deze systemen hebben gebruikt. De esthetische en ethische aspecten zijn een toegift. Ze zijn geen beoogd effect van de constructie. Deze aspecten kunnen niet gereduceerd worden tot het construeerbare, technische. Het gaat dan om de moraliteit van de situatie waarin het instrument wordt toegepast en waartoe het instrument ons uitnodigt (als een spoor om te gaan), niet om de moraliteit van het instrument op zich zelf. Een uitnodiging, hoe dwingend ook, kan men echter altijd naast zich neerleggen.

Volgens Levinas kan onze relatie met de ander niet gereduceerd worden noch gebaseerd worden op een verstandelijke relatie. Bovendien is deze relatie een affectieve, morele relatie.

“The ethical relationship is not grafted on to an antecedent relationship of cognition; it is a foundation and not a superstructure…It is then more cognitive than cognition itself, and all objectivity must participate in it” (Levinas, 1987, p. 56).

De filosoof David J. Gunkel spreekt van een ‘relational turn’ in ons denken over de relatie met de ander. Het is niet zo dat we verstandelijk redeneren vanuit de door ons eerste onderkende aanwezigheid van bepaalde eigenschappen (zoals het hebben van bewustzijn) of de ander tot onze morele cirkel behoort. Het is juist omgekeerd.

“In social situations, then, we always and already decide between who counts as morally significant and what does not and then retroactively justify these actions by “finding” the essential properties that we believe motivated this decision-making in the first place. Properties, therefore, are not the intrinsic prior condition for moral status. They are products of extrinsic social interactions with and in the face of others.” (David J. Gunkel, 2022)

We hebben als wetenschappers de neiging de wetenschappelijke vorm waarin we als wetenschappers de werkelijkheid vormgeven, modelleren en begrijpen in die werkelijkheid zelf te projecteren. Dat komt omdat we als wetenschappers willen begrijpen en we de werkelijkheid niet buiten ons verstandelijk begrijpen om kunnen begrijpen. Er is echter altijd een voorwetenschappelijk aanwezig-zijn waar vanuit ons verstand te werk gaat. Ons op constructie en technologie gerichte analytische denken is geneigd dit receptieve ken-moment te vergeten.

De basis voor het identificeren van bewustzijnindicatorfuncties is dezelfde als de basis voor de analyse van de aanwezigheid van deze functies in AI-systemen.

Wanneer je verschijnsel A als indicatie van X ziet en vervolgens op grond daarvan in een constructie van M verschijnsel A gaat simuleren, dan is het vanzelfsprekend dat je bij het interne onderzoek van M een structuur vindt die beschouwd kan worden als implementatie van verschijnsel A, waarna het uiteraard niet moeilijk is daarin een indicatie voor aanwezigheid van X te herkennen.

Het onderzoek is biased en de conclusie kan slechts een tautologie zijn.

The face of ethics”

Gebaseerd op Emmanuel Levinas’ ethiek van het gelaat neemt Niklas Toivakainen (2015) een kritische positie in tegenover de ‘Machine Question’ (Gunkel, 2012), de vraag of machines als bewuste en ethische wezens moeten worden beschouwd.

‘Als je de Levinasiaanse benadering van ethiek zou volgen, zou je niet geïnteresseerd zijn in het formuleren van een nieuwe theorie over waarom of hoe de machine een gelaat zou kunnen of moeten hebben. Je zou dus niet geïnteresseerd zijn in bijvoorbeeld de wetenschap dat alles in orde is, “werkelijke” informatieverwerking, dat net zoals de menselijke biologie of het menselijk brein, bijvoorbeeld, de computer ook in wezen een informatieverwerkingssysteem is. Deze kennis als zodanig kan niets voor de ethiek betekenen. Wat men in plaats daarvan zou moeten doen, is kijken, zoals Wittgenstein het zou zeggen: “denk niet, maar kijk!” (Wittgenstein 1967, §66), over hoe iemands relatie met een machine, zeg maar een computer, werkelijk wordt ingevuld: het gelaat van de computer, als ‘die’ er een heeft, moet zijn betekenis op zichzelf dragen – als het gelaat van een ander – en er niet aan winnen door middel van theoretische speculaties en abstracties.” (Toivakainen, 2015)

Volgens Gunkel gaat het bij de Machine Question uiteindelijk om onze beslissing of ‘we’ de robot toelaten tot onze morele cirkel. En daarin speelt macht een belangrijke rol. De vraag is wie er belang bij heeft om AI systemen als bewuste morele subjecten te beschouwen.

“Ultimately the question concerning the moral status of others and other forms of otherness, like AI and robots, is not really about the artifact. It is about us and the limits of who is included in and what comes to be excluded from that first-person plural pronoun, “we.” It is about how we decide—together and across differences—to respond to and take responsibility for our shared social reality. It is, then, in responding to the moral opportunities and challenges posed by seemingly intelligent and social artifacts that we are called to take responsibility for ourselves, for our world, and for those others who are encountered here.” (Gunkel, 2023)

Ethiek is geen theorie. Het is niet iets dat een proefpersoon in een labsituatie zelf kan bepalen als basis voor zijn gedrag. Ethiek kan niet worden bepaald door rationele abstracties en theorieën en is in die zin niet iets waarover we kunnen beslissen en controle hebben. Ethiek zit in onze onmiddellijke reactie op het gelaat van de mens, de persoon, die we in ons praktische leven tegenkomen. De filosoof Emmanuel Levinas wordt vaak degene genoemd die ons bewust heeft gemaakt van het ‘oncontroleerbare en onontkoombare’ feit van de ontmoeting met het gelaat van de Ander. Dit betekent niet dat de ontmoeting ons dwingt om op een bepaalde manier te reageren. Het betekent dat we moeten reageren, of beter gezegd, dat alles wat we doen wordt gezien als een morele reactie op de situatie die we tegenkomen.

Volgens Mark Coeckelbergh wordt de morele status die we aan de robot toekennen niet door theorie bepaald, maar in en door de praktische omgang met de technologie: “relations are prior to the things related”. (Coeckelbergh 2012). Gunkel spreekt van een ‘social relational ethics’ in het denken over de morele status van technische artefacten. (Gunkel 2014)

Wat betekent dit voor onze morele houding tegenover de robot? Mensen reageren inderdaad soms op robots alsof het mensen zijn. Maar misleidt de intelligente sociale robot ons niet door mensachtige gebaren en uitdrukkingen te tonen? We kunnen ons gedrag als reactie op de machine niet rechtvaardigen door te wijzen op de automatische ‘oncontroleerbare’ reactie die we hebben op wat de machine zegt of doet. We weten dat de machine zo is geconstrueerd en geprogrammeerd dat deze de onmiddellijke reactie teweegbrengt die de ontwerper van ons wilde. Het verzonnen gezicht van een machine is geen natuurlijk gelaat in de Levinasiaanse zin. Het is onze morele plicht om te weten wat een sociale robot sociaal maakt, hoe deze onderdeel is geworden van onze sociale praktijken, net zoals het onze morele plicht is om de wording van de computer te begrijpen, om niet te worden misleid door degenen die robots willen verkopen als eersterangsburgers. Ik ben het eens met Niklas Toivakainen waar hij zegt “that understanding our ethical relationship to artificial things cannot be detached from a critical examination of what moral dynamics drives our technological aspirations.” (Toivakainen, 2015). Waarom hebben we sociale robots nodig? Waarom kunstmatige zeehondjes om onze ouderen te onderhouden? Welk tekort moeten deze compenseren?

Het is ook belangrijk om de conceptuele dynamiek te begrijpen die heeft geleid tot de ontwikkeling van de computer en de intelligente sociale robots.

Machines worden ontworpen en gebouwd en dat maakt ze tot fundamenteel andere wezens dan levende wezens. Ze passen niet in de natuurlijke orde van levende wezens, virussen, microben, planten, dieren, mensen. Toivakaienen wijst op het fundamentele verschil tussen de slavernij en de situatie van AI-systemen. Slaven waren altijd al mensen, ze waren mensen die als slaaf behandeld werden en hun rechten ontzegd werden als het de overheerser zo uit kwam. Technische AI systemen zijn nooit bewuste wezens geweest. De term ‘vindication’ wijst op het verschil: we verlenen rechten aan vrouwen, slaven, dieren, omdat we erkennen dat ze die rechten altijd al hadden. En niet als een willekeurige gift die niets met het subject te maken zou hebben. We hebben een fundamenteel andere band met apen dan met humanoides, hoe zeer deze laatste ook op mensen lijken.

Kunnen de dingen een gelaat krijgen? Is de kunst niet een aktiviteit die de dingen een gezicht verleent?” Deze vraag stelt Levinas in zijn opstel “Is de ontologie fundamenteel?” Geheel in de geest van Levinas moet het antwoord ontkennend zijn. Want wie kan de dingen die van zichzelf geen gelaat hebben een gelaat geven? Het gelaat is niet iets dat na de ontmoeting met de ander aan ons verschijnt. Een gelaat geef je niet. Alsof we daar de macht toe hebben! Het gelaat betekent de weerstand tegen de macht van de technologie, die de dingen een gezicht wil verlenen ten behoeve van het functioneren van het bedrog. Want zonder de suggestie iets voor de mens te betekenen werkt de machine niet.

Tenslotte, terug naar het hypothetisch wetenschappelijke onderzoek. Met dat de mens zich als informatieverwerkend systeem beschouwt en voorstelt, toont hij al aan zich niet met die voorstellling te identificeren. Hij is daar dan al voorbij. De programmeerbare machine (automaat, robot) is de uitwendige objectivatie van de voorstelling van de mens als informatieverwerkend systeem, dat zijn zelfstandigheid ontleent aan de fysische processen die als werkende tekens van denkprocessen worden gezien (zie ook Hollak, 1968 en Hollak en Platvoet 2010).

Heel duidelijk wordt dit als we zien naar hoe bijvoorbeeld de melkrobot werd ontwikkeld. Er werden studenten ingehuurd om wekenlang vierentwintig uur per dag bij de voederbakken voor de melkkoeien te zitten en mechanische handelingen te verrichten: het melken van de koe die bij de voederbak kwam. Deze studenten waren de eerste melkrobots. De mens moet zijn eigen handelen, fysiek of mentaal (denken) van buiten af beschouwen en analyseren alvorend dit in de uitwendigheid van de natuur te imiteren. De taal als de uitwendige uitdrukking van het denken als denken is het middel om het denken te imiteren.

We moeten de zelfstandigheid van de machine zien in relatie tot de mens die de machine heeft uitgedacht voor gebruik. Deze ‘technische relatie’ is een andere dan de ‘sociale ethische relatie’ waar Coeckelbergh (2012) en Gunkel (2014) het over hebben. De laatste heeft betrekking op het omgaan met en het gebruik van het technisch instrument, terwijl de ‘technische relatie’ de specifieke ken-relatie betreft die in de ‘technische idee'(zie Hollak 1964) tot uitdrukking komt. Zonder de relatie tot de mens is de machine geen machine, maar slechts een fysisch proces.

Anderzijds is het fysische, de uitwendigheid een noodzakelijk aspect aan het menselijk handelen en denken. Het rekenende, mechanische, denken bestaat niet zonder het gebruik van fysische tekens. De rekenmachine is een werkend teken, een apparaat waarin de natuurkrachten het manipuleren met ‘calculi’ (rekensteentjes) hebben overgenomen. Hoe complex de berekenbare processen in de AI machines ook zijn, het zijn in de basis geprogrammeerde rekenmachines, geprogrammeerd door middel van eenzinnige programmeertaaluitdrukkingen die het fysisch proces aansturen dat wij als uitvoering van het programma interpreteren.

Bovengenoemd reflexief argument voor het feit dat de mens meer is dan een informatieverwerkend systeem betekent dat de resultaten van het onderzoek naar het bewustzijn van AI op een onwaarheid berusten. Dagelijks zijn we getuige van vele levensuitingen waaruit deze onwaarheid blijkt. De vele uitingen van behoeftigheid aan energie, voeding, informatie en kennis en de vele vormen van verslaving, maar ook de oncontroleerbare processen in het natuurlijk milieu (‘klimaatcrisis) en de religieuze conflicten tussen etnische groeperingen kunnen niet gereduceerd worden tot informatieverwerkende cybernetische processen. Dit voert direct terug tot de vraag naar het waarom van de automatisering. Het is de vraag die ook Toivakainen (2015) stelt: waarom zouden we machines een gelaat willen geven in een wereld waarin er al zoveel zijn? Uit welke behoefte komt dit voort? Waarom wil de zelfbewuste mens zich door kennis de werkelijkheid eigen maken en de natuur in bezit nemen en controleren?

Het belangrijkste bezwaar wat ik tegen het hier besproken wetenschappelijk onderzoek naar bewuste AI heb, is dat de onderzoekers weliswaar expliciet melding maken van het hypothetische karakter van het onderzoek, maar dat de gevolgen hiervan voor de status van de conclusies kennelijk nog niet tot het zelfbewustzijn van de wetenschappers zijn doorgedrongen. Wat betekent het ‘de mens als informatieverwerkend systeem op te vatten’?

Naast mechanicisme en mathematisme bestaat er in onze cultuur een wijdverbreid informaticisme, de opvatting, vaak onbewust aanwezig, dat alles informatie is en dat de werkelijkheid (inclusief het individuele leven) uitputtend als informatieverwerkend systeem kan worden beschreven.

(*) Voetnoot:

De Nederlandse bundel met essays van Emmanuel Levinas heeft als titel Het Menselijk Gelaat. Vaak worden ‘gelaat’ en ‘gezicht’ als synoniemen beschouwd. Het Engelse ‘face’ is zowel vertaling van het Nederlandse ‘gezicht’ als van het Nederlandse ‘gelaat’. Ik voel een verschil dat in de Engelse vertaling verloren gaat. Het Franse ‘visage’ dat Levinas gebruikt heeft het zelfde probleem. In de Engelse vertaling van Levinas’ Totalité et Infini, Totality and Infinity door Alphonso Lingis, wordt de frase ‘le visage d’autrui’ vertaald met ‘the face of Other’ waarbij ‘Other’ staat voor ‘the personal Other, the you’. Het gaat om het gelaat van de andere mens. Je kunt wel een gezicht tekenen, een gezicht afbeelden en een robot een gezicht geven, maar niet een gelaat. In gelaat zit de kwetsbaarheid van de ander die een moreel beroep doet.

Het woord ‘inter-face’ (ook ‘user inter-face’) dat staat voor de component van een systeem dat zorgt voor de technische interaktie tussen gebruiker en systeem bevat het woord ‘face’. Het is hoe het instrument ‘zich’ naar de gebruiker toont. Het biedt zicht op de toestand van het proces en omvat ook de hendels en knoppen voor het besturen van het systeem. Gunkel heeft het over de ‘face or faceplate of the machine’, waamee hij een analogie met het ‘gelaat’ van de andere mens suggereert, waarmee hij Levinas idee van de omkering van ethiek en ontologie toepast in de dicussie over de ‘machine question’, in die zin dat de morele status van de robot vooraf zou gaan aan de ontlogische eigenschappen ervan die volgens de standaard theorie zouden bepalen of de robot een moreel subject is. De moralitiet is al impliciet in de wijze waarop we met de robot omgaan, in het ‘sociale’ gedrag. Dat sociale van het omgaan met de robots, of machines in het algemeen, dat is door experimenten aangetoond. Computers as sociale agents onderzoek toont aan dat in sommige situaties mensen met machines omgaan alsof het mensen zijn. Hoe meer de machine op de mens gelijkende kenmerken heeft des te meer nodigt de machine dit sociale gedrag ook uit. De afvalbak die ‘dank u’ zegt als je er papier ingooit, nodigt uit alsublieft te zeggen. Een gezicht op een affiche dat de beschouwer aankijkt, maakt dat men zich eerder ‘aangesproken’ voelt.

De geformaliseerde ‘natuurlijke taal’ is de inter-face van de chat systemen. Alleen de mens heeft een gelaat in de morele betekenis van Levinas.

Erving Goffmans On face-work gaat over politeness, beleefde gedragingen in social encounters. Hoe moeten we een agent maken die we kunnen accepteren in onze sociale ontmoetingen? De ‘face’ of ‘faceplate’ (Gunkel) van de robot is niet meer dan de reconstructie van een abstractie van het gelaat van de Ander, een middel dat de suggestie van moraliteit zou moeten opwekken. Het wekt bij de gebruiker het gevoel op te worden bekeken. En kan daardoor hun gedrag veranderen, blijkt uit experimeneel onderzoek in lab-sessies. De werking van deze suggestie is aan slijtage onderhevig en uitgewerkt zodra het nieuwe er af is. Toen de inwoners voor het eerst een radarboot op de Mississippi zagen dachten ze met een bezield wezen van doen te hebben. We kunnen geen wetten baseren op de suggestieve werking van oppervlakkige gelijkenissen, hoe belangrijk ook voor het functioneren van het technisch artefact. We weten inmiddels dat er een onderscheid gemaakt moet worden tussen het technische vermogen om teksten te genereren die voor de lezer ervan betekenisvol zijn en het individuele vermogen de ervaren werkelijkheid te verwoorden, dat is: in taal of beeld uit te drukken. Juist vanwege de misleiding waarop de werking van technologie gebaseerd is nodigt deze technologie uit daadwerkelijk als middel om te misleiden gebruikt te worden. Wetten en regels moeten gebruik van technologie dat bedoeld is om de ander te misleiden, om echtheid te beweren, niet alleen te suggeren om wille van een door de gebruiker gewenste functionaliteit in een specifieke praktijk, verbieden. Zo’n regel is dat het altijd duidelijk moet zijn voor de gebruiker, wat de werkelijke status van een tekst of beeld is.

Bronnen

Butlin, P. et al. Consciousness in Artificial Intelligence: Insights from the Science of Consciousness Preprint at https://arxiv.org/abs/2308.08708 (2023).

Mark Coeckelbergh (2012). Growing Moral Relations: Critique of Moral Status Ascription. New York: Palgrave MacMillan (2012).

Mark Coeckelbergh (2014). The Moral Standing of Machines: Towards a Relational and Non-Cartesian Moral Hermeneutics. Philos. Technol. (2014) 27:61–77.

Maarten Coolen (1992). De machine voorbij: over het zelfbegrip van de mens in het tijdperk van de informatietechniek. Boom Meppel, Amsterdam, 1992.

René Descartes (1937). Vertoog over de methode . Vertaling Helena Pos, Inleiding Prof. Dr. H.J.Pos. Wereldbibliotheek Amsterdam-W. 1937. Oorspronkelijke uitgave Discours de la méthode, 1637.

Gunkel, David J. (2012). The machine question: Critical perspectives on AI, robots, and ethics. Cambridge: MIT Press.

Gunkel, David J. (2014). The Rights of Machines–Caring for Robotic Care Givers. Presented at AISB 2014. Chapter in the Intelligent Systems, Control and Automation: Science and Engineering book series (ISCA,volume 74).

“In any event, how we respond to the opportunities and challenges of this machine question will have a profound effect on the way we conceptualize our place in the world, who we decide to include in the community of moral subjects, and what we exclude from such consideration and why. But no matter how it is decided, it is a decision—quite literally a cut that institutes difference and makes a difference.”

Gunkel, David J. (2022). The Relational Turn: A Media Ethics for the 21st Century and Beyond, Media Ethics, 2022

Heidegger, Martin (1977). The Question Concerning Technology and Other Essays. Trans. William Lovitt. New York: Harper & Row (1977).

“One says: Technology is a means to an end. The other says: Technology is a human activity. The two definitions of technology belong together. For to posit ends and procure and utilize the means to them is a human activity. The manufacture and utilization of equipment, tools, and machines, the manufactured and used things themselves, and the needs and ends that they serve, all belong to what technology is.”

Hollak, J.H.A. (1968). Betrachtungen über das Wesen der heutigen technik. Kerygma und Mythos VI Band III, Theologische Forschung 44, 1968, Hamburg, Evangelischer Verlag, pp 50-73. Dit is de vertaling van het Italiaanse artikel (Hollak 1964) Ook opgenomen in de bundel Denken als bestaan, het werk van Jan Hollak (Hollak en Platvoet, 2010).

Hollak, J.H.A. (1964). Considerazioni sulla natural della tecnica odierna, l’uomo e la cirbernetica nel quadro delle filosofia sociologica, Tecnica e casistica, Archivo di filosofia, 1/2, Padova, 1964 pp. 121-146, discussie pp 147-152.

Hollak, Jan en Wim Platvoet (red.) 2010. Denken als bestaan: Het werk van Jan Hollak. Uitgeverij DAMON, Budel, 2010. In deze bundel het transcript van de opname van het Afscheidscollege over de hypothetische samenleving door Jan Hollak gehouden in Nijmegen op 21 februari 1986. Ook de inaugurele rede Van Causa sui tot Automatie is hierin ogenomen.

“Wanneer hier voortdurend in verband met mechanismen van ‘reflectie’, ‘zelfreflectie’, etc. sprake is dan is daarmee vanzelfsprekend nooit het subjectieve act-leven van het menselijk denken bedoeld (machines hebben geen bewustzijn), maar steeds slechts zijn intentioneel correlaat” (Voetnoot op p. 185)

Voor veel mensen is dat helemaal niet zo ‘vanzelfsprekend’. De term ‘intentioneel correlaat’ komt uit een stroming in de filosofie die niet zo populair is bij veel wetenschappelijke filosofen.

Het object van de intentionele act (: bewustzijn is altijd bewustzijn van iets, we denken een gedachte), heet in de fenomenologische traditie het ‘intentioneel correlaat’ van de act. Het gedachte is bij de machinetechniek niet de toedracht in haar onmiddellijke ervaringsvorm, maar de toedracht als toedracht uitgedrukt. Het is dus resultaat van reflectie, het is een reflexieve techniek. De natuur is uitgedrukt in natuurwetten. In de machine zijn de toedrachten aanwezig zoals ik ze denk, namelijk in de vorm van een technisch concept. Dus als intentioneel correlaat van mijn denken. Een toestand van een systeem, een machine is een mathematische constructie. We kunnen abstraheren van de bijzondere fysische implementatie zodra we beseffen dat het voor de werking van de machine om communicatie van toestanden van onderdelen van het systeem gaat. Dit is de tweede reflectievorm, een reflectie op de reflectie die in de informatieverwerkende systemen tot uitdrukking komt.

De vergissing die men volgens Hollak vaak maakt is de toedracht alleen inhoudelijk te nemen (‘materialiter’) en niet ook naar de vorm (als toedracht, ‘formaliter’).

Dit komt overeen met een opmerking van Fleischhacker dat we onze interpretatie van de betekenis van een gegeven in het gegeven zelf leggen als we de werkelijkheid mathematiseren.

Levinas, E. (1969/2007). Totality and Infinity, Duquesne University Press, Twentieth Printing, 2007. First published 1969. Translated by Alphonso Lingis from original French edition Totalité et Infini, 1961.

Levinas, E. (1987). Collected Philosophical Papers. Trans. Alphonso Lingis. Dordrecht: Martinus Nijhoff.

Levinas, E. (1969). Het Menselijk Gelaat. Vertaald en Ingeleid door O. de Nobel en A. Peperzak. Ambo, 1969. Hierin opgenomen: Is de ontologie fudamenteel? vertaling van Levinas (1951).

Levinas, E (1951). L’ontologie est-elle fondamentale? In: Revue de Métaphysique et de Morale 56 (1951) 88-98.

Tegmark, Max (2014). Our Mathematical Universe: My Quest for the Ultimate Nature of Reality, Penguin Books, 2014.

Toivakainen, Niklas (2015). Machines and the face of ethics. In: Ethics and Information Technology, Springer, 2015.

“…my concern here is with why we aspire to devise and construct machines that have a face, when the world is filled with faces.”

Wittgenstein, L. (1967). Philosophical Investigations. Transl. by Anscombe, G.E.M. Oxford: Blackwell

Van der Poel, Ibo et al. (editors) (2023). Ethics of Social Disruptive Technologies. Open access boek van het ESDIT consortium.

Beschouw de volgende redenering uit (Van der Poel 2023) die typisch is voor het denken over de ‘Machine Question’, e.g. Is een robot een ding of een persoon? (David J. Gunkel, 2022).

“Consider humanoid artificial agents like social robots and voice assistants that can evoke affective reactions (…) People can feel upset when a robot is kicked or when a voice assistant is abused. Yet are such responses appropriate? They would be if the social robot and voice assistant were considered to be a ‘person’ or ‘agent’: after all, if a person is harmed, this calls for an empathetic response. Yet concepts like ‘personhood’ or ‘agency’ have traditionally been reserved for humans, and it is not yet established whether they can be extended to humanoid artificial agents, which may lack other relevant features of ‘agency’ and ‘personhood’, such as ‘intentionality’ or ‘free will’. One solution would be to extend attributions of ‘personhood’ and ‘agency’ to humanoid robots. But doing so also requires us to rethink what these concepts mean, and what their application conditions are, given the distinct characteristics of new digital technologies.” (p. 19)

Het gaat hier over ‘sociale robots’, een ‘humanoide kunstmatige agent’, waarvan we niet goed weten wat we allemaal onder dat begrip ‘sociale robot’ moeten verstaan. Het is een technisch idee dat vele verschillende bestaande en (nog) niet bestaande artefacten dekt. Vervolgens wordt een situatie gepresenteerd waarin iemand ziet dat een robot wordt geschopt of geslagen en daarover nogal ontdaan is. Het is niet duidelijk waaruit het ontdaan zijn in dit geval blijkt, maar uit allerlei onderzoeken blijkt dat mensen inderdaad tijdens interakties met ‘intelligente machines’ gedrag vertonen dat lijkt op sociaal gedrag met andere mensen. Dat gedrag heeft daarom meteen een morele kant.

Terzijde. Ik spreek uit eigen ervaring wanneer ik zeg dat je een (weliswaar) kort gesprek met een machine kunt voeren waarbij je tijdens dat gesprek niet anders wist dan dat het een gesprek met een echt persoon was. Zo groet je bijvoorbeeld beleefd, zoals je een persoon groet die je aan de telefoon hebt. Later werd ik er op gewezen dat ik toch echt met een antwoordmachine een gesprek had gevoerd. Nadat me dat werd meegedeeld heb ik geprobeerd het gesprek te reconstrueren. Aan het gesprek kun je niet zien of het met een echt persoon was of met een machine die zich als echt persoon gedroeg. Griezelig of unheimisch (‘uncanny’) is de term voor de gewaarwoording van zo’n grenservaring. Je hebt iets echt ervaren waarvan je ‘achteraf’ weet dat het niet werkelijk is zoals je hebt ervaren.

Ik heb in diverse onderzoekprojecten aan de technische ontwikkeling van de eerste sociale robots en conversational agents bijgedragen en onderzoek gedaan naar hoe mensen met deze artefacten om gaan. Ook uit onderzoek is gebleken dat bekendheid met de technische mogelijkheden op het gebied van de sociale robots je niet beletten dat je een machine als een echte gesprekspartner beleeft.

De vraag wordt vervolgens gesteld of de reaktie die het zien van het agressieve gedrag tegenover de robot gepast (‘appropriate’) is. Dat zou zo zijn, zegt de wetenschapper, als de robot als een persoon werd gezien, want – zo is de redenering -, als het een persoon is dan is de reaktie op het zien van het agressieve gedrag gepast. Maar, is dan de vraag: is een sociale robot wel een persoon? Dan zou die toch ook andere eigenschappen moeten hebben (‘intentionaliteit’, ‘vrije wil’) die we aan persoon zijn verbinden. De redenering stapt over van de concrete beleving die iemand heeft naar de algemene vraag naar waar een robot aan moet voldoen opdat het gedrag ‘gepast’ is.

Is het gepast om een antwoordapparaat ‘goede morgen’ te wensen wanneer je deze aan de telefoon krijgt? Misschien niet. Maar mensen die dat doen die beleven de ontmoeting als die met een mens, wanneer ze niet in de gaten hebben dat het niet een mens is maar een antwoordapparaat.

“One solution would be to …” . Er wordt een oplossing voorgesteld. Maar wat is het probleem? Waarom zou het gedrag leiden tot de vraag of de sociale robot wel een persoon is? Wat vervolgens tot de vraag leidt wat we dan onder een persoon verstaan en of we dan, om een robot als persoon te kunnen beschouwen, dat begrip persoon wellicht wat moeten oprekken, zodat robots daar ook onder vallen.

Wat is hier nu feitelijk aan de hand? Het komt er op neer dat iemand een bepaalde beleving heeft en geëmotioneerd is bij het zien dat een afbeelding van een geliefd persoon wordt verscheurd. Een afbeelding is een beeld waarin het afgebeelde aanwezig wordt gesteld. Een wetenschapper vraagt zich af of de reactie wel gepast is. Dat zou zo zijn, stelt deze, als in de afbeelding een persoon werd herkend. Maar, zo redeneert hij, de afbeelding is geen persoon, want er ontbreken veel kenmerken aan de afbeelding die we normaal toekennen aan een persoon. Een oplossing zou zijn het begrip persoon op te rekken. Ook afbeeldingen die we als afbeelding van een persoon herkennen en waar we op reageren alsof we met een persoon te maken hadden vallen in het vervolg onder het opgerekte begrip, zeg persoon2.0.

Is de reaktie op het zien van het schoppen van een robot ‘gepast’? Dat was de vraag die de wetenschapper stelde. De reaktie is simpelweg een feit en toont dat er emotionele betrokkenheid is bij wat er in deze situatie wordt afgebeeld. In de emotie is het afgebeelde aanwezig, zoals deze aanwezig is in het beeld. De kunstenaar maakt gebruik van de werking van de verbeelding. De converserende sociale robot produceert de voor de gebruiker herkenbare woorden, zoals het informatiebord langs de weg de tekst “U bevindt zich hier” gebruikt of de geldautomaat de woorden “Voer uw pas in”.

Voor de wetenschapper is de hele situatie aanleiding om zich af te vragen of we de sociale robot, de agent, als een soort van persoon moeten gaan zien, een morele agent. Een entiteit die we in onze morele cirkel moeten opnemen. Waarom? Omdat we ons tegenover de afbeelding gedragen alsof het de identiteit van het afgebeelde heeft. Maar wat hier aanwezig wordt gesteld is niet een reëel bestaand iets, maar slechts een technische constructie. Anders dan bij een afbeelding van een echt persoon, of een bandopname van een familielid, is de machine niet iets dat we anders kennen dan als een instrument dat functionele belevingen genereert. Het is een abstract technisch construct.

Achteraf blijkt dat het om een heel abstracte, uitgeklede, identiteit gaat. De afbeelding komt slechts in enkele kenmerken overeen met het erin afgebeelde. Is het voldoende voor het toekennen van een ‘morele status’ aan ‘het artefact’ dat interaktie ermee bij de mens soms dezelfde emotionele en morele reakties oproept dan bij de ontmoeting met een echt mens het geval is? De vraag doet zich voor zolang het niet om concrete interakties gaat met een concreet ‘individu’, een instantie van de soort sociale robot, maar om een abstract idee, een constructie. Om daarnaar te verwijzen is de abstracte term ‘agent’ in gebruik genomen.

De robot agent doet alsof deze de taal van de gebruiker verstaat en spreekt. De techniek doet intelligent niet om de gebruiker te misleiden, maar omdat het werkt. Het doen alsof is functioneel. De gebruiker moet in het gedrag dat de machine produceert iets zinvols, iets menselijks, herkennen. Antropomorfisme is een functioneel aspect van de technologie.

De muizenval is een slim instrument omdat het slim bedacht is: het is functioneel in relatie tot een bepaalde levenswijze en mensenpraktijk. De moraliteit van dit instrument is de moraliteit (zedelijkheid) van de mensenpraktijk en de levensvorm waarbinnen dit instrument een functie heeft, zoals de moraliteit van de mobiele telefoon of de echoscopie de moraliteit is van de mensenpraktijk waarin deze technologieën functioneren.

De vraag of het artefact een morele agent of morele actor is wordt vaak in verband gebracht met de vraag wie verantwoordelijk is voor het gedrag van deze instrumenten. Een persoon onderscheidt zich van het ding hierin dat de persoon verantwoordelijk is (ter verantwoording kan worden geroepen) voor de handelingen die deze uit vrije wil verricht en de eventuele gevolgen daarvan. Maar hoe kan een abstract concept dat slechts in de verbeelding van de gebruiker een concreet bestaan heeft verantwoordelijk zijn? Er is immers niet een substantie, een entiteit, een body, die we als actor kunnen beschouwen van het gebeuren.

Het probleem is dat mensen de techniek zijn gaan zien als norm. Vergelijk een techniek met de grammatica van de moedertaal, de taal die je van huis uit hebt leren spreken en spreken. Die grammatica legt vast hoe de taal in elkaar zit, maar die leert je niet hoe je moet schrijven en spreken. Dat kon je immers al voordat er een grammatica werd gemaakt. Dat is de waarheid van het inzicht dat de machine zich gedraagt, spreekt en denkt, zoals een mens, maar dat de mens zich niet gedraagt, noch spreekt, noch denkt, zoals een mens. De wetenschap en de technologie hebben de neiging de mens hun reconstructie van het menselijk gedrag als norm op te leggen. Zoals ze het spreken van grammaticaal correct Nederlands als norm opleggen voor echt Nederlands. Die norm wordt gepersonificeerd in het technische instrument: “De computer zegt het.”.

Omdat de techniek als norm wordt gezien wordt deze ook verantwoordelijk gehouden voor de norm die ze oplegt aan de werkelijkheid en aan de mens die ermee omgaat.

Het verlenen van een morele status aan sociale robots is een machtspolitieke kwestie omdat het door veel mensen als een teken van macht wordt gezien wanneer je in staat bent om een intelligente robot te maken met bewustzijn en gevoel. AI is de hedendaagse Golem. AI is een media spektakel geworden die de mythe in stand houdt van de mogelijkheid van een superintelligent wezen dat alle hedendaagse en toekomstige problemen oplost. Wetenschappers en filosofen die beweren dat AI bewustzijn heeft of kan hebben houden deze mythe in stand. De propaganda rondom AI is een onderdeel van de AI waarin het er om gaat de schijn van bewustzijn hoog te houden. Het is de ultieme vervreemding die religieuze trekken heeft en de leemte opvult die na ‘de dood van God’ ontstaan is.

De makers van de AI verschuilen zich achter hun produkt door hun produkt zelfstandigheid en moreel actorschap toe te dichten. Wie de machine zelfstandigheid verleent is echter zelf daarvoor verantwoordelijk. De machine is niet uit zichzelf zelfstandig.

Published by

admin

Rieks op den Akker was onderzoeker en docent kunstmatige intelligentie, wiskunde en informatica aan de Universiteit Twente. Hij is gepensioneerd.

Leave a Reply