Ongeautoriseerde en ongeadresseerde woorden en andere gebaren

Als ik over de landweg fiets komt de buurman mij op zijn trekker tegemoet. Met zijn ene hand houdt hij het stuur vast terwijl twee vingers van de andere hand even de klep van zijn pet aanraken. De buurman groet mij. Ik steek mijn hand op en zeg: hai. Terwijl we deze gebaren maken vervolgen wij onze weg. Het zijn rituele gebaren, waarin we getuigenis afleggen van een gewoonte. In deze gewoonte wonen wij (om het maar eens op zijn Heideggers te zeggen). Het is onderdeel van onze cultuur, onze taal, de verzamelplaats van getuigenissen. Gebaren zijn niet privé, ze zijn ons cultuurbezit: aangeleerd gedrag.

Wij, moderne mensen vatten ons gedoe op als cultuur. De moderniteit kent vele culturen, wereldbeelden en levensvormen (ways of life).

Gebaren zijn aan verandering en slijtage onderhevig. Het aantikken van de pet dat de buuurman doet is een overblijfsel van het afnemen van de pet als groetend gebaar. Dat is niet nodig; het gaat immers om het gebaar. Daar verwijst het symbool naar. Zo stapelen in de loop van de tijd de tekens zich op.

De buurman en ik, wij zijn niet de auteurs van dit gebaar. Noch zijn wij de uitvinders van het groeten. Vergelijk het met de timmerman die een bed maakt. Deze maakt dit bed, maar niet het bed. Wie heeft ‘het bed’ gemaakt? Die vraag zet ons op het verkeerde been. Het bed is niet door iemand gemaakt. Het bed is een wijze waarop het leven van de mens verschijnt, als onderdeel van het leven, liggen, rusten, slapen. Het gebaar is als het bed, de stoel, de tafel.

Wat betreft het ‘aangeleerd’ zijn van het gedrag. Mijn buurman en ik voeren geen toneelstuk op. Het is niet geregiseerd wat wij hier doen. Het is geen voorstelling waar ik hier al verhalend aan u, de lezer, over vertel. Ik kan wel zeggen dat ik werkelijk een buurman heb die boer is, maar dat kan u niet overtuigen van de echtheid van dit verhaal. Doet het er toe, of dit een verslag is van een echt gebeuren, zoals ik me dat herinner? Wat doet het er eigenlijk toe of een gebeuren echt is gebeurd of dat het zich slechts in een verhaal heeft afgespeeld? Alles, voor wie het er werkelijk toe doet.

Wat is het verschil tussen het opsteken van de hand, zoals je wel doet bij een begroeting, en iemand groeten? Wat maakt het opsteken van de hand tot een groet? Kun je iemand groeten zonder een gebaar te maken, zoals het zwaaien van de arm, of een hoofdknik? Zouden er culturen zijn waarin het de gewoonte is om niets te doen als je elkaar groet? Zijn er lege gebaren? Kun je iets bedoelen, zonder dat in woorden of handelingen uit te drukken? We kunnen het gebaar als object los zien van degene die het gebaar maakt, zoals we de woorden los kunnen zien van de spreker die de woorden uitspreekt. We kunnen het gebaar beschrijven. Het gebaar neemt de betekenis mee, voor wie het gebaar als gebaar (her)kent en het gebruikt zoals het bedoeld is.

Zolas er een verschil is tussen het geschreven woord en de schrijfwijze van het woord, zo is er een verschil tussen het gebaar en de manier waarop de buurman mij groet. Dat doet hij op een manier die niet alleen van de situatie afhankelijk is (hij zit op zijn trekker), het gebaar is ook eigen aan hem. In werkelijkheid is er slechts dit gebaar. De gebaren, de gedragingen bestaan niet werkelijk dan als vorm en vormend van concrete unieke verwerkelijkingen ervan.

Heb ik op enig moment besloten mijn hand op te steken? Is deze handeling resultaat van een besluit of is het buiten mijn wil om gebeurd? Ik had ook niet kunnen groeten. Maar dat is achteraf gezien. Uit het feit dat ik de buurman heb gegroet blijkt dat ik het niet níet kon doen. Maar wat heeft me er dan toe bewogen het te doen? Op welk moment is deze aktiviteit ingezet? Is er een moment waarop het gebaar is aangevangen? Kan onderzoek dit moment identificeren? Ik weet zeker dat mijn aktie niet veroorzaakt is door de waarneming van het gebaar van de buurman. Maar is er dan geen oorzaak? Ik stel me mijn gedrag voor als een gebeuren in de tijd, alsof het niet mijn gedrag is. Door te reflecteren stap ik uit de fysieke grenzen en bepalingen van mijn gedrag en tegelijk bepaal ik deze als fysisch.

Stel dat ik me vergist heb. Het was niet de buurman die ik op zijn trekker tegenkwam, maar een robot die sprekend op de buurman lijkt. Heeft de robot mij gegroet of heeft deze alleen maar een ‘gebaar’ gemaakt waardoor ik gedacht heb dat deze mij groet? Zolang het onderscheid niet gemaakt is, is er geen verschil tussen deze voorstelling en wat er werkelijk gebeurd is. Pas als ik later tot de ontdekking kom dat het niet de buurman zelf was maar een robot, realiseer ik me dat het een vreemde ontmoeting was (soms spreekt men van ‘griezelig’ echt als het om bijna echt gedrag van humanoide robots gaat). Zolang we de robot voor menselijk houden behandelen we deze als een mens. Niet omdat het een robot is die we voor een mens houden, maar omdat we met iets menselijks te doen hebben. Ik groet de buurman niet omdat ik tot de conclusie ben gekomen dat deze figuur in deze omstandigheden door mij gegroet moet worden, omdat het een mens is.

We moeten een onderscheid maken tussen de vraag hoe te specificeren wat het verschil is tussen mens en machine (robot) enerzijds en de vraag hoe we weten met een robot of met een mens te doen hebben. Deze laatste vraag zou geen vraag zijn zonder het onderscheid. Een andere vraag is of de robot zelf iets is dat dit onderscheid kan maken. Bestaat de robot als persoon, als individu? Heeft elke robot zijn eigen persoonlijkheid of karakter? Is het onderscheidende kenmerk dat de robot zoals elke machine zijn eigenheid buiten zich heeft, terwijl de mens zichzelf is? Maar wat bedoel ik daar precies mee: zijn eigenheid buiten zich hebben? We raken hier aan het lichaam-geest probleem. De geest bestaat bij de mens niet buiten het lichaam. De menselijke geest is een lichamelijke geest. We kunnen het gedrag van de buurman niet los zien van de buurman als persoon: zo is hij. We herkennen hem in zijn lichamelijk gedrag, aan de wijze waarop dit op geheel eigen wijze voor ons waarneembaar wordt. Hij uit zich als individu in zijn gedrag.

Een robot is bedacht en gemaakt, zoals iedere machine. Het is een voorstelling. Ik realiseer me hoe mijn herinnering en reflectie op het gebeuren van de ontmoeting met de buurman al een voorstelling is, een onderscheid heeft gecreëerd tussen het gebeuren waarin ik als het ware ondergedompeld ben (was) en mijn voorstelling en verhaal waarin dit gebeuren als een bepaald gebeuren aan de loop van de tijd is onttrokken. Alsof het een bijzonderheid is die waard is opgemerkt te worden. (Zo moet ieder verschijnsel, elk deeltje in de deeltjesfysica, ieder virus in de biologie, eens opgemerkt zijn, ontdekt zijn als iets dat bestaat. Iets dat zich bestendigt boven het verloop van de tijd uit. Iets wat we ‘metafysisch‘ zouden kunnen noemen. Zo is de metafysica gelijktijdig met de fysica ontstaan, de fysica die vervolgens de vraag stelt of dit iets dat een naam mag hebben, reproduceerbaar is en onder welke omstandigheden. De fysica is niet geintereseerd in het gebeuren als uniek, als een persoonlijk teken voor de mens die het ondergaat, maar wil het verklaren en opvatten als een algemeen verschijnsel van een wetmatigheid.

Kunnen we een robot leren wat groeten is en wanneer hij dat moet doen? Zoals we een machine kunnen leren schaak te spelen of go. Hoe leert een mens wat groeten is en hoe je dat moet doen? Hoe leert een mens schaken? Is leren hetzelfde als het om een machine gaat of om een mens? Wat is bij beide hetzelfde en waarin zit het verschil?

Wat zijn de omstandigheden die maken dat de robot zijn hand opsteekt als teken dat hij iemand groet die hij tegenkomt. Kunnen we die omstandigheden uittekenen? Maar is groeten niet een uiting van een verhouding tot de ander die je groet? Is de uiting niet uiting van een innerlijk bewogen zijn, van een gevoel, wat gepaard gaat met een bedoeling? Moet er dan in de robot ook niet iets omgaan opdat er van groeten sprake kan zijn? Wat betekent het groeten eigenlijk voor de robot? Kan iets wel iets voor een machine betekenen?

De vraag dringt zich nu op of een schaakmachine wel schaak speelt. Want wat betekent een spelletje schaak eigenlijk voor de machine? Wat betekent winnen of verliezen voor een machine? Hoe kun je een machine leren wat schaken is als deze niet wil winnen? Is een machine zenuwachtig, bang iets over het hoofd te zien: een mogelijke zet, waardoor deze een foute zet doet? Zoals er omstandigheden zijn waarin het voor mij niet duidelijk is of het gepast is of nodig iemand te groeten. (Bijvoorbeeld als je dezelfde persoon voor de derde keer in korte tijd tegen komt. Op zo’n moment, een grensgeval, is een regel aan de orde: wat is hier normaal gedrag, wat schrijft het protocol voor?) Neemt de machine een beslissing welke zet het zal doen? Hoe zijn de mogelijke zetten waaruit de machine kan kiezen voor de machine aanwezig? Zijn die bepaald door de spelregels en de stand op het bord, door het algoritme volgens welke de machine de volgende zet berekent of door de fysieke mogelijkheden van de machine, zoals de geheugencapaciteit? Feitelijk, dat is: gegeven de stand op het bord, is er maar één zet mogelijk, de zet die daadwerkelijk wordt uitgevoerd. Wanneer wij de machine voor slim houden is het omdat wij de zet die hij doet niet gezien hadden als mogelijke zet. Als het niet de beste zet was, dan ligt het aan het algoritme. We gaan er vanuit dat de machine het algoritme uitvoert en er niet om een of andere reden (vermoeidheid, stress) van afwijkt. Als we tegen een machine spelen spelen we tegen een algoritme. Dat is een ander spel dan het spel van de bladeren in de wind, of van een zwerm spreeuwen.

Het is van belang in te zien dat we gedrag op verschillende niveaus van reflectie kunnen begrijpen. Het gedrag kan als feitelijk voorkomend gedrag worden beschreven. Het gedrag kan als functionerend volgens bepaalde regels gereconstrueerd worden (zie: Fleischhacker 1989). Zoals ik hier boven heb gedaan. Maar gedrag kan ook als uitoefening van bepaalde vermogens begrepen worden. Neem als voorbeeld van gedrag: het groeten. Dat kan beschreven worden als het opsteken van de hand. Het kan als zodanig gereconstrueerd worden als een functie die in een bepaalde situatie uitgevoerd wordt. Maar groeten kan niet als zodanig begrepen worden wanneer we abstraheren van het menselijk vermogen tot sociale interaktie. We kunnen een humanoide robot wel leren hoe in bepaalde welomschreven situaties de hand op te steken (een groeten gebaar te maken), maar beschikt deze ook over het vermogen dat aan dit gedrag bij de mens ten grondslag ligt? Beschikt de robot over de verstandelijke vermogens in te zien waar het bij het groeten om gaat? Of beter gezegd: is het bij de robot een uiting van een sociale relatie? Het groeten kan immers niet als een louter functionele handeling worden gezien. Groeten is geen taak. Wij zien het groetend gebaar van de robot als groetend gebaar. Niet als uiting van een vermogen, waarin een sociaal individu tot uitdrukking komt.

“How to compare man with machine?” vraagt Albert Visser in (Visser 2020). Hij specificeert de vraag meteen tot de vraag of er taken zijn die de mens beter kan uitvoeren dan de machine. “Can we save man’s superiority by pointing at a task that man can perform better than a machine?” Dit is een bepaalde benadering van de vraag naar hoe mens en machine zich verhouden: de “contest approach”. Voor veel mensen heeft de vraag een emotionele en morele lading. Wij mensen zijn toch zeker meer dan een machine. Machine zijn is toch een minderwaardige bestaanswijze dan menszijn! Dat we er minder moeite mee hebben te erkennen dat er machines zijn die in bepaalde taken beter zijn dan wij mensen, zo leggen wij het af tegen een graafmachine als het om het graven van een sloot of kanaal gaat, dat komt omdat we die taken niet echt menswaardig vinden. Gegeven de beschikbaarheid van graafmachines is het niet menswaardig en moreel onacceptabel om mensen een kanaal met een schep en een emmer te laten graven.

De vraag die Visser stelt is of er ‘neutrale’ spelregels voor een competitie tussen mens en machine bestaan. Waarbij ‘neutraal’ betekent dat de regels niet voordelig zijn voor één van beide partijen. Het gaat dan vooral om het succescriterium dat bepaalt wie er beter is in het uitvoeren van de taak. Visser beweert dat het niet mogelijk is om op zulke neutrale gronden spelregels te formuleren, zodat de conclusie moet zijn dat de contest benadering niet geschikt is om mens en machine te vergelijken. De contest benadering (zoals bijvoorbeeld de Turing test) is een benadering die probeert de filosofisch antropologische kwestie: hoe mens en machine te vergelijken, te omzeilen. Maar dit lukt niet. We moeten serieus nadenken over wat de mens is en wat de machine is. Temeer omdat de machine een intentioneel iets is, niet een puur fysisch verschijnsel. De vraag wat de machine is, is direct verbonden met de vraag wat wij als mens zijn. Verder merkt Visser nog op dat de vraag naar hoe mens en machine te vergelijken typisch een probleem is waarbij de nadere specificatie van de vraagstelling zelf mede in het geding is.

Inderdaad, want wat is een machine. Wat betekent het dat de machine een intentioneel object is, niet eenvoudigweg iets fysisch? Het kan twee dingen betekenen: de machine heeft intenties, en de machine is een intentioneel correlaat van de menselijke aktiviteit, van ons denken en bewustzijn. Ik denk dat beide interpretaties aan de orde zijn. Het is de uiteindelijke bedoeling van de mens dat de machine werkt zoals de mens die bedoelingen en bewustzijn heeft, en daardoor op een intelligente manier met de omgeving kan interakteren. De machine is gebaseerd op een model, een reconstructie, van specifieke handelingen, gedragingen van de mens.

Waarom zouden we bij het vergelijken van mens en machine ons moeten beperken tot het uitvoeren van bepaalde taken of functies en niet ook kijken hoe goed de machine is in het formuleren van zinvolle taken of zienswijzen?

Ik denk dat het wezenlijk is voor onze verhouding tot de machine dat de mens de machine heeft uitgevonden. Dit is gebeurd in interaktie met zijn natuurlijke omgeving. De mens heeft in de natuur de hefboomwerking ontdekt, als iets opmerkelijks uit het gebeuren onttrokken, waarmee het een mechanisme werd dat bewaard is en dat nuttig gebruikt kan worden.

Sommige mensen denken dat machines geen bewustzijn hebben omdat het door ons ontworpen en gemaakte mechanismes zijn die werken volgens deterministische natuurlijke wetten.

Maar stel dat we tot de ontdekking komen dat de mens ook een artefact is, gemaakt door een creator en dat we een deterministisch systeem zijn. We hebben het alleen niet in de gaten dat we dat zijn. We zitten er als het ware in opgesloten: onze intelligente aktiviteiten, ons taalgedrag, alles is van te voren bepaald. Hilary Putnam (1964) laat zien hoe we er denkend en voorstellend, alle mogelijke argumenten voor en tegen afwegend, niet uitkomen of het al dan niet hebben van bewustzijn het verschil maakt tussen mens en robot. Zeggen we dat de robot geen bewustzijn heeft, dan moeten we ook zeggen dat de mens geen bewustzijn heeft. We kunnen simpelweg niet weten of de robot anders werkt, dan de mens. We weten niet of de machine die zegt dat deze pijn heeft (of ‘au’ zegt) wanneer je hem op de voet staat (zoals Descartes voorstelde) ook werkelijk pijn ervaart, zoals wij pijn ervaren. Maar dat geldt ook voor de andere mens: hoe weten we dat de ander pijn ervaart zoals wij? Zo reageeert men dan.

Putnam zoekt naar een criterium dat hem overtuigt van het verschil tussen echt en namaak en merkt dat zijn voorstellingsvermogen hem telkens belemmert tot een verschil te concluderen. Kan dit verstandelijke zoeken zichzelf serieus nemen als het zich als machinaal systeem beschouwt? Als er geen verschil is tussen echt en onecht, tussen wat wezenlijk is en wat bijkomstig is, tussen wat zijn is en wat schijn is, is het zoeken ernaar dan zinvol?

Hoewel de robot een machine is die gemaakt is door de mens, schijnt deze toch de vraag op te roepen of de machine gevoelens of bewustzijn heeft. Sommige mensen menen dat de machine waarmee ze een gesprek voeren bewustzijn heeft. Dat concluderen ze op grond van hun beleving van het gesprek: ze zijn ervan overtuigd dat ze met een bewust wezen van doen hebben. Deze beleving is geen direct produkt van het maken van de machine. Je zou het een toegiftverschijnsel kunnen noemen, zoals het esthetische van een technisch instrument.

Het feit dat deze mensen dit opmerkelijk vinden doet vermoeden dat het iets opmerkelijks is. Niet zoals een peuter die voor het eerst ‘mama’ zegt, maar zoals wanneer een machine iets zegt. Waarom is dat zo opmerkelijk?

Wij kunnen niet experimenteel, op grond van onze ervaring of door ‘intern’ onderzoek, bepalen of de robot iets beleeft, of de dingen die het ziet, voor de robot iets zijn, of de woorden die het uitspreekt iets voor hem betekenen. Maar als dat zo is dan moet dat al in in aanleg in het maken van de robot zelf aanwezig zijn. Het moet iets zijn dat in aanleg in het maken aanwezig is en dat in en door het gebruik ervan aan het licht komt. De buurman kan zijn postsignalering gebruiken, zoals de ontwerper het bedoeld heeft. Het gebruik ervan in een bepaalde gebruikersituatie is voorzien door de ontwerper ervan. De buurman kan zijn trekker en zijn rekenmachine gebruiken zonder te weten hoe deze ‘intern’ werken.

De mens-machine interface designer gebruikt taaltechnologie in eerste instantie niet om de gebruiker de indruk te geven dat de sprekende robot echt spreekt en weet wat hij zegt, maar omdat het werkt. Het gaat de technicus om de functionaliteit, om de doelmatigheid en de mogelijkheid die de techniek de gebruiker biedt voor economisch, nuttig gebruik, voor bevrediging van een behoefte. Die behoefte kan de behoefte van de mens aan contact met anderen zijn. De ‘companion robot’ die gemaakt wordt om de behoefte bij de eenzame oudere aan contact te bevredigen heeft een economische functie. Opdat dit werkt moet de techniek de oudere meer bieden dan een technisch middel. De robot moet beleefd worden als een persoon waar de oudere werkelijk contact mee heeft, iemand die aandacht heeft voor de oudere als persoon, voor wat deze beleeft en beleefd heeft. Zodra de oudere zich ervan bewust is dat het maar een machine is, een wezen waarin niets omgaat, kan de robot niet meer als sociale companion beleefd worden.

Over de kwestie of machines werkelijk kunnen denken of bewustzijn hebben zijn de meningen dus verdeeld. De filosofen Coeckelbergh en Gunkel (2020) merken op dat de verschillende standpunten in deze kwestie allen uitgaan van een “fundamental difference that is the organizing principle of Western metaphysics since (at least) Plato. In all cases, the arguments depend on and mobilize ontological difference, i.e. difference between what appear to be vs. what really is the case.” De auteurs bepleiten een ‘deconstructie’ (de term is van Derrida) van deze oude metafysica. Als we het verschil tussen schijn en zijn niet meer kunnen maken, dan kunnen we het maar beter opheffen, lijkt de gedachte te zijn. De discussie zou volgens hen moeten gaan over wie er bepalen hoe de werkelijkheid aan ons verschijnt. Het onderscheid tussen schijn en zijn is een politieke kwestie. Het gaat om de macht.

Ik interpreteer dit zo dat de machthebbers inhoudelijk bepalen welke woorden en teksten hun machines ons presenteren en waarin we onze behoefte om kennis en informatie bevredigen. Die verhalen zijn gemaakt op basis van ‘historisch’ taalmateriaal. Verwoordingen, creaties, van de werkelijkheid, zoals mensen die in het verleden hebben gemaakt. Ze worden niet meer als historische verwoordingen gezien, maar als feitenmateriaal. Daarmee bepalen de machthebbers hoe we de werkelijkheid ervaren in afhankelijkheid van een bepaalde geschiedenis. De technologie maakt ons ervan bewust, voor wie het zien wil, hoe zeer ons gedrag door teksten, door taal, door voorstellingen, bepaald wordt. Dat inzicht moet de mens inzetten tegen de macht van de grote bedrijven die de teksten maken en die bepalen wat we wel en niet te zien en te lezen krijgen.

In tegenstelling tot wat Coeckelbergh en Gunkel betogen meen ik dat het van groot belang is het onderscheid tussen schijn en zijn tussen echt en reconstructie te maken. Niet een ‘deconstructie’ van het onderscheid tussen zijn en schijn is noodzakelijk, maar een inzicht in het uitwendige karakter van de reconstructie dat we als relatief ten aanzien van het structurend verstand moeten zien. Het structurerend vermogen gaat niet op in de feitelijke structureringen die ten grondslag liggen aan de fysische reconstructies.

Even verderop fiets ik langs het huis van de buurvrouw. Ze staat in de voorkamer op een trapje voor het raam. Met één hand houdt ze het trapje vast. In de andere heeft ze een grote gele spons. Daarmee lapt ze al zwaaiend het raam. Ik zwaai naar haar. Ze lacht. Ik lach terug en vervolg mijn weg. Kun je met eenzelfde handeling twee verschillende dingen doen? Wat maakt een handeling tot een handeling? Is het strekken van de arm om een appel te plukken hetzelfde als het strekken van de arm om iets aan te wijzen, of een groet te brengen? Groet je iemand als je niet van de ander een teken krijgt dat hij je als groet bedoelde gebaar als groet heeft opgevat en geaccepteerd? Is het ontvangen een onderdeel van het geven? Kun je iets geven dat niet ontvangen wordt? Kun je doen alsof je iemand groet? Hoe doe je dat?

De buren hebben een brievenbus op een paal aan de straat staan. De bus is voorzien van een stok met aan het ene eind een grote gele plastic hand waarvan de wijsvinger gestrekt is. Het werkt als een hefboom. Wanneer je de klep van de bus open doet om er iets in te doen gaat de stok met de hand recht overeind staan. Dat is voor de buurman een teken dat er post is. Een slimme constructie. Het is een logisch systeem, dat werkt als een hefboom. Ik herken de twee momenten van de logos: het argument (arguere = aan het licht brengen) is het poststuk, de oorzaak of reden, van het teken, de hand met de vinger die omhoog wijst. Dat de opgestoken hand voor de buurman een teken is dat er post is, dat is omdat het systeem daarvoor gemaakt is. Het is de bedoeling geweest bij het maken ervan. Door de constructie is er een gelijkheid van de natuur gebruikt om een betekenisvolle gelijkheid te realiseren. De natuurlijke gelijkheid is die van de hefboom: wanneer de ene kant omhoog gaat gaat de andere kant van de stok omlaag: een oorzakelijk, noodzakelijk, verband tussen twee verschijnijngsvormen van het zelfde. Van deze gelijkheid maakt de constructie gebruik om de gelijkheid tussen de aanwezigheid van het poststuk en het teken van die aanwezigheid te bewerkstelligen. Het argument wordt zo uitgedrukt in het woord (teken). Soms wordt de buurman misleidt: dan is er geen post terwijl de hand zegt dat er wel iets is. Of omgekeerd: als het gevroren heeft dan werkt de hefboom niet.

Wat is het verband tussen “Flipflop #75 is on” en “ik zie iets rood”? vraagt Putnam (1964) in zijn overweging of er een verschil tussen mens en machine.

Vlakbij de kruising van de landweg met de grote weg staat een bankje met daarnaast een afvalbak en een informatiebord voor fietsers. Op de klep van de afvalbak staat PAPIER HIER. Als ik er een prop papier in gooi hoor ik een stem die zegt “DANK U”. Ik speel deze opvoering mee en reageer met een “alsjeblieft”.

Ik kijk naar de plattegrond op het informatiebord. In het midden van de kaart staan de letters U BEVINDT ZICH HIER gedrukt. Dat klopt, denk ik als ik lees wat er staat: ik ben inderdaad hier. Ik snap dat met die U ik bedoeld wordt: degene die dit U nu leest. De informaticus in mij zegt: U is een variabele die als waarde krijgt ik, in het algemeen: de lezer. Het is een onderdeel van de interface van de tekst als informatiesysteem. Ik zie dat er iets ontbreekt, waardoor het woord HIER, en daarmee de hele tekst, de lezer niets zegt. In het gras onder het bord ligt een rode pijl. Ik raap hem op en prik hem op het bord. Zo. Nu wijst de pijl de plek aan waar het bord staat.

Ik corrigeer mezelf: de pijl wijst de plek op de kaart aan die overeenkomt met de plek waar het informatiebord staat. Onder de voorwaarde dat het bord op de plek staat die overeenkomt met de plek waar het bord feitelijk staat op het moment dat de woorden gelezen worden door iemand die daadwerkelijk op die plek staat. Alleen onder deze voorwaarden functioneert de tekst U BEVINDT ZICH HIER. Wie weet hoe het werkt hoeft de tekst niet te kunnen lezen. Ook de Poolse toerist die geen Nederlands kent, weet wat het betekent, als hij bekend is met deze wijze van informeren. De tekst is zelfs compleet overbodig, De goede verstaander heeft aan de rode pijl genoeg.

Is er iemand die de betekenis van de woorden “u bevindt zich hier” bedoelt? Zoals mijn buurman met het opsteken van de hand bedoelt mij te groeten. Is er iemand die weet dat ik mij hier bevindt? Natuurlijk niet. Degene die de tekst op het bord heeft gezet weet niet dat ik hier nu ben. Maar in zekere zin weet de tekst het ook wel. Je kunt de tekst de dicto en de re lezen: de deictische woorden, zorgen voor de ontmoeting tussen de tekst en de lezer.

De tekst rapporteert niet waar de lezer zich in werkelijkheid bevindt. De tekst zegt de lezer waar deze zich op de kaart bevindt. De lezer wordt een plaats op de kaart toegewezen. Vergelijk het met de bewering “jij bent zwart” door iemand met wie je een spelletje schaak gaat spelen. Er wordt iets gesteld, door een autoriteit, waardoor het beweerde waar wordt. De impliciete bewering is dat deze virtuele plaats op de kaart overeenkomt met de locatie waar het informatiebord staat. De lezer moet er vanuit kunnen gaan dat dit klopt. Techniek vraagt om vertrouwen van de gebruiker.

Wanneer het bord voor reparatie in de opslag van de provincie staat, moet de tekst niet serieus worden genomen. Alsof iemand zegt “jij bent zwart” terwijl er helemaal geen sprake is dat er een spelletje schaak gespeeld gaat worden. Een taalbestand is een opslagplaats van teksten die bruikbaar zijn.

Het informatiebord functioneert als informatiebord slechts in de situatie waarin het gebruikt wordt. Het moet op een bepaalde plaats staan; het moet door iemand gebruikt worden die zich op die plaats bevindt (de tekst wordt bijvoorbeeld niet vanuit de ruimte met een telescoop bekeken); de lezer (gebruiker) vertrouwt erop dat de aangewezen plek op de kaart overeenkomt met de locatie in de werkelijkheid waar de gebruiker en het bord zich bevinden. De woorden functioneren in een bepaalde spelvorm.

Alleen in het gebruik van een woord heeft deze een betekenis.

Het informatiesysteem is zo opgezet dat er een gezamenlijke aktiviteit mogelijk is. Het systeem is zo gemaakt dat teksten en uitingen worden getoond in de juiste omstandigheden. Denk aan de geldautomaat die zegt “wilt u uw pas invoeren”? Toch is er sprake van ongelijkheid in status tussen mij en de tekst. De tekst weet niet dat het tot mij spreekt. Ik weet wat het is om geld op te nemen en dat de machine daarvoor gemaakt is.

Hier, dit, U, nu. De taal is niet bij machte zelfstandig naar iets concreets te verwijzen. Het individuele zijnde is onbereikbaar voor de taal. We kunnen zeggen “de koning van Frankrijk is kaal”, of “Het regent, maar ik geloof dat het niet regent.”. Dat wil zeggen: we kunnen de woorden uitspreken of opschrijven. Maar we kunnen niet echt bedoelen wat de woorden zeggen.

De plattegrond kan alleen een afbeelding zijn voor wie weet wat een afbeelding is. Zoals de tekening van een pijp voor wie het onderscheid kent geen echte pijp is. Het vooronderstelt een weten van het verschil tussen beeld en werkelijkheid. Het beeld vertoont gelijkenis met het afgebeelde. De plattegrond toont een abstract beeld van de werkelijkheid zoals we die hebben ingericht. Het verschil tussen beeld en werkelijkheid opent ruimte voor de kunst van het verbeelden. Er zijn plattegronden van gebieden die niet echt bestaan.

Het informatiebord is bedoeld voor de fietstoerist. Het is onderdeel van een fietsknooppuntenroute, een produkt van de toeristenindustrie. Het is deel van een systeem van fietsroutes die de toerist voeren langs bezienswaardige plekjes, oude molens, theehuisjes, restaurantjes en bed and breakfast gelegenheden. Op sommige plekken zijn langs de fietsroute informatiebordjes geplaatst waarop staat wat er te zien is: beuk, haver, spelt. Ook zijn er borden met kleurrijke tekeningen van bijzondere diersoorten: groene boomkikker, sperwer, kiekendief. Geen enkel element van de natuur, of de cultuur is niet opgenomen in het systeem. Alles heeft een naam. De werkelijkheid is geinventariseerd en opgenomen in bestanden. De plattegrond toont met opvallende kleuren (paars en rood) bepaalde routes. Die wegen zijn ook breder getekend dan de andere wegen, zodat je niet goed kunt zien wat nu een grote weg is en wat slechts landweg of fietspad. Langs de aangegeven routes zijn hier en daar punten gemarkeerd waar zich een restaurant of bezienswaardigheid bevindt. Vanuit die punten zijn lijntjes getrokken naar de rand van het bord met info over de verschillende locaties. QR-codes geven de lezer toegang tot nog meer informatie. Het platform wordt door lokale boeren gebruikt als propaganda middel. NO FARMER NO FOOD staat er met een dikke stift op geschreven. Een ander heeft daar onder gezet: NO NATURE NO FOOD.

De mens speelt als fietstoerist een rol in het business-model van de fietstoeristenindustrie. Deze industrie is onderdeel van de door wetenschap en techniek ingerichte economische samenleving. Deze organiseert de vrije tijd en vernietigt deze. Er blijft geen tijd meer over. De vrije tijd wordt nuttig besteed, zoals elk stukje land door de boer wordt benut.

Er is een verschil tussen verbeelden en afbeelden. Bij het afbeelden is hetgeen afgebeeld wordt de maat. Het afgebeelde bestaat buiten het afbeelden. Daarentegen creeërt het verbeelden de verbeelding, een eigen werkelijkheid. De plattegrond op het informatiebord is niet een ontwerp van het afbeelde gebied, alsof het ontwerp er eerder was en het gebied volgens het ontwerp is ingericht. Dit verschil in functie is aan de plattegrond niet af te zien. We kunnen aan de tekening van een bestaand huis niet zien of dit er eerder of later was dan het huis. We kunnen niet zien of het huis gemaakt is zoals op de tekening of dat de tekening een afbeelding van het huis is. De plattegrond is een presentatie van de werkelijkheid met een bepaald doel. Voor de naïeve gebruiker toont het de werkelijkheid zoals die is: beeld en werkelijkheid vallen samen. Zoals de onderdelen van een schaakspel niet naar iets anders verwijzen dat buiten het spel bestaat. Het is een wereld op zich zelf.

Coeckelbergh en Gunkel zouden zeggen: we kunnen dat onderscheid tussen beeld en werkelijkheid wel missen. Het gaat erom te weten wie de macht heeft over de verbeelding. Wie bepaalt welke routes de fietser wordt voorgesteld? Ik vraag me af waar dat ‘hier’ in “U bevindt zich hier” eigenlijk naar verwijst. Wie zegt mij waar ik ben; hoe mijn wereld er uit ziet?

U kunt niet aan dit verhaal zien of het een afbeelding, een rapportage, of verbeelding is.

De taal is geen afbeelding van de werkelijkheid. De oorspronkelijke taal verwoordt de ervaring. Verwoorden is een vorm van verbeelden, niet van afbeelden. Wat brengt de verwoording onder woorden? Is het een gedachte, een ervaring, een werkelijkheid? Alle drie? Waar komen de woorden, de gebaren, de betekenisvolle klanken en tekens vandaan? Waar komt het onderscheid tussen uiting en innerlijk vandaan? Verwoorden is onderdeel van het vormen van de gedachten. Zonder verwoord te zijn is er geen gedachte.

Onze buurman is een realist. De mens is van nature realist. Wat voor ons verschijnt, waar we mee van doen hebben, dat is werkelijkheid, realiteit. Niet wij maken dat onderscheid tussen hoe de dingen verschijnen en hoe ze werkelijk zijn. Het onderscheid behoort tot de werkelijkheid. Zonder onderscheid tussen schijn en zijn zou er geen werkelijkheid zijn. Zonder dit onderscheid zouden er ook geen gebaren zijn, tekens die iets betekenen, geen plattegronden.

Volgens Plato is er maar één echte pijp. Dat is de Ideale Pijp. Zo is er ook een ideaal bed, het Ideale Bed. Ik onderscheid twee soorten idealen: mathematische idealen en echte idealen. Plato’s Ideeën zijn echte idealen. Mathematische idealen zijn bedacht en benaderbaar door een constructie. Ze zijn voorstelbaar, zoals een driehoek. We kunnen een tekening maken van een driehoek. Platoonse idealen zijn niet voorstelbaar. Er is slechts één Platoons Idee Driehoek, zoals er maar één Idee Bed is. Maar er zijn meerdere driehoeken. Zo kan ik het hebben over de driehoek ABC en de driehoek DEF. Mathematische objecten zijn zuiver gedachtedingen, constructies.

De moderne technicus houdt zich bezig met het realiseren van mathematische idealen. Hij maakt machines en weet precies uit te leggen ‘hoe ze werken’. In principe is iedere machine voor de technicus een rekenmachine. De meest geavanceerde machines zijn de programmeerbare rekenmachines. Deze rekenmachines verwerken informatie: informatieverwerkende machines. Informatie is een relatie die betrekking heeft op de toestand van een systeem, zoals de toestand van een controlelampje op het dashboard iets zegt over de toestand van de auto. De opgestoken hand van de postbus geeft informatie over de inhoud ervan. Ze zegt wat het geval is. Rekenmachines zijn nuttig: de uitkomsten, de produkten van de machine verwijzen naar onze werkelijkheid, de zaken waar we in ons leven mee te maken hebben. Bijvoorbeeld berekent de machine hoeveel mest onze buurman elk jaar op het land mag verwerken volgens de regels van de overheid. De belastingdienst is een machine die berekent hoeveel belasting de burger moet betalen.

De boer gebruikt verschillende machines. Hij weet hoe zijn tractor werkt, maar niet hoe zijn rekenmachine werkt. Hij noemt dat magie. Hij noemt de machine slim omdat deze goed en snel kan rekenen. Zo snel zou hij het zelf niet kunnen ook al zou hij de formules kennen die de overheid heeft voorgeschreven en die de producent van de machine erin heeft geprogrammeerd.

De technicus kan de boer wel uitleggen hoe het kan dat de machine zo snel kan rekenen. Daarvoor legt hij eerst uit wat rekenen is. Rekenen is een speciale vorm van denken. Denken doen we in taal. Rekenen doen we met tekens. Rekenen is manipuleren met tekens, elementen van een codetaal. Dit manipuleren gaat volgens regels. De spelregels zeggen precies hoe een tekenconfiguratie verwerkt wordt tot een nieuwe tekenconfiguratie, een toestand van de machine. Welke regel er wordt toegepast dat staat in die configuratie zelf gecodeerd.

Het bijzondere van de tekens van de mathematische machinetaal in vergelijking met onze gewone taal is dat de betekenissen ervan exact vastliggen. De machine werkt zoals de natuur, dat is: volgens vaste wetten. De natuur denkt niet na om te bepalen wat deze in een bepaalde toestand zal doen. De natuur doet gewoon. De natuur laat zich niet afleiden. Ze werkt zoals ze werkt. Daarom werkt de machine zo snel. Met de snelheid van het licht. Zo snel als de opgestoken hand reageert op het openen van de postbus. Het zijn de momenten van hetzelfde gebeuren. Als de natuur maar wat deed dan zouden we er niet op kunnen rekenen. De natuur kent geen zenuwen, geen stress.

Wanneer ik de rekenmachine wil laten uitrekenen hoeveel 234 * 16 is, dan moet ik de getallen invoeren en laten weten dat hij ze moet vermenigvuldigen. Dat kan alleen door een fysische toestandverandering die ik te weeg breng. De machine is zo gemaakt dat er (oneindig) veel mogelijke toestanden zijn. Het is eigen aan de natuur hoe deze in elkaar over gaan, door invloed van buiten af.

Maar waarom is wat de slimme machine doet nuttig voor de mens? Als de machine zelf bepaalt welke regel tekens wordt toegepast heeft de mens er dan nog wat over te zeggen? Heeft de machine nog iets met onze werkelijkheid te maken? Ja zeker wel. De mens heeft de machine namelijk geconfigureerd. Hij bepaalt de toestand van de machine. Hij kent deze toestand voorzover deze voor hem als gebruiker van belang is. Het is de interface die de gebruiker de toegang biedt tot de machine. Voor de invoer een toetsenbord en een verschillende andere sensoren. Voor de uitvoer: een beeldscherm, waarop lijntjes verschijnen die de gebruiker als letters, woorden en tekst herkent, en andere uitvoerkanalen, zoals een mechanische arm en een hand van een robot.

De buurman zou willen dat hij op de werking van zijn postbus kan rekenen. Dat deze werkt zoals de ideale postbus, volgens een mathematisch logische constructie. Als er post is dan gaat de hand omhoog ten teken dat er post is. Maar zo simpel is het niet. Er gaat wel eens wat fout. Een muizenval is een slim instrument, maar vangt ook wel eens een vogeltje. Een muizenval en een slimme postbus, het zijn geen rekenmachines. In zekere zin kent de muizenval de muis. In welke zin? In die zin dat (onze kennis van) het gedrag en eigenschappen van de muis door ons in de constructie van muizenval zijn opgenomen. De muizenval is een uitwendige objectivatie (in de natuur) van onze kennis van bepaalde aspecten van de muis. De muizenval weerspiegelt niet alleen die kennis, maar ook dat wij muizenvallen willen maken. Dat wij zorgrobots maken voor zorg aan ouderen zegt iets over de cultuur waarin we leven.

In de taalverwerkende intelligente machines werken de woorden zoals de mathematische tekens van de rekenmachine. Ze functioneren zoals de iconische teksten PAPIER HIER en U BEVINDT ZICH HIER. Als de technicus zegt dat woorden functioneren zoals deze iconische teksten dan houdt hij onze taal voor een mathematische taal. Hij verwart taal zoals die gebruikt is en opgeslagen in onze geheugens en die we in rituelen gebruiken als gebaren, met de taal als uitdrukkingsmogelijkheid voor nieuwe werkelijkheidsbelevingen.

Het onderscheid tussen subject en object is volgens Heidegger een ‘Geschick des Seins’, een schikking van het zijn. Het onderscheid behoort tot onze werkelijkheid.

Het beeld wat hier ontstaat is het volgende.

Machines zijn anoniem, subject-loos. Hun teksten en gebaren zijn zonder auteurs en ongeadresseerd. De wetenschappelijke technologie neemt ook de mens op in het technische bestand: deze speelt een rol in het technisch-economisch model. Niet de mens, maar het systeem, de technologie, staat centraal. Het antropocentrisme, de doctrine van het beheersende subject, dat controle heeft over de werkelijkheid, heeft afgedaan. De mens wordt gerobotiseerd, zijn leven is een wetenschappelijke objectiviteit.

De techniek construeert nu teksten waarin beschreven staat hoe wij de werkelijkheid zouden beleven en ordenen. Dit gebeurt buiten de mens om door de machine.

Hoe krijgen we grip op dit machinale gebeuren? Hoe kunnen we ons verzetten tegen de manipulatie van ons denken over de werkelijkheid zoals dat door de teksten, door machines wordt voorgeschoteld? Kunnen we grip krijgen op de techniek door regels op te stellen waaraan de makers en gebruikers ervan zich moeten houden?

Waaraan ontleent de producent van de AI zijn macht?

De macht van de grote bedrijven appeleert aan een gebrek aan inzicht in het wezen van de techniek.

De mens kan niet zonder techniek. De mens kan geen gebaren maken, geen verhalen vertellen zonder vorm te geven aan het gebaar, zonder een tekst te produceren. Die produkten van de technologie staan niet op zichzelf. Ze zijn historische, moeizaaam tot stand gekomen uitingen die we als zodanig moeten zien.

Dit verhaal is moeizaam tot stand gekomen. Het is geen antwoord op een vraag, geen resultaat van een onderzoekproject. Het enige doel is zaken voor mijzelf te verhelderen. Het vergelijken van mens en machine heeft tot doel inzicht in de mens. De machine is van de mens. Voor wie dat niet ziet dreigt het gevaar dat hij onderdeel en onderdaan van de machine wordt; van de machten die belang hebben bij de machine.

Over de dood van de auteur

Na de verklaring van de dood van God, is het in de mode de Auteur voor dood te verklaren. Daar moeten we aan toevoegen dat de artikelen waarin deze verklaring wordt gebracht vrijwel altijd voorzien zijn van auteursnamen. Dat zal een functie hebben. Sommige mensen pleiten ervoor de taal en de techniek als co-auteurs te vermelden.

Mijn verhaal zou gezien de stand van de techniek door een op grote taalbestanden (LLMs) gebaseerde tekstgenerator gemaakt kunnen zijn. U, de lezer, kan dat tegenwoordig louter op grond van de tekst niet beoordelen.

We kunnen ook niet op grond van een interactie met een entiteit die er uitziet als een mens en zich uit als een mens beoordelen of dit een echt mens is of een machine. Het verschil is geen verschil dat tot de werking behoort. Wij kunnen ook niet door het fysisch ontleden er achter komen of de entiteit bewustzijn heeft, wanneer we die eigenschap niet aan bepaalde materialen of fysische processen koppelen. Wat we meestal niet doen: we doen alsof bewustzijn (geest, mind) een andere substantie (zelfstandigheid) is die strict gescheiden is van materie. In werkelijkheid is dat natuurlijk niet zo. Mijn buurman bestaat niet buiten zijn lichaam. Er is maar één buurman. Dit individuele leven uit zich lichamelijk en vormt het, waardoor het op elk moment is en doet wat het geworden is.

Wat ik weet is dat ik geen machine ben, inzoverre de machine slechts buitenkant, object is, terwijl ik subject, verhouding tot het object ben. De machine is uitwendige realisatie in de vorm van natuurprocessen en eigenschappen van de verhouding van de mens als subject tot zichzelf als object.

Dat ik weet dat ik de auteur ben van deze tekst, dat kan ik wel in woorden uitdrukken, (als ik het van belang vind de lezer dit mee te delen), maar dat levert weer een tekst die op zichzelf beschouwd ook weer als louter produkt, buitenkant, gezien kan worden. Een produkt waaraan niet te zien is of het door een machine of een mens geproduceerd is. De machine heeft er net zo min moeite mee ‘ik denk dus ik ben’ te zeggen als ik dat heb. Het verschil tussen zeggen en tonen is niet aan de woorden zelf te zien. Zo kan ik niet weten of de buurman mij groet of dat hij voor mij een groet ten tonele brengt, terwijl hij geen benul heeft wat groeten eigenlijk is (Mensen met een bepaalde vorm van autisme kunnen soms aanleren wat ze in bepaalde herkenbare sociale situaties moeten doen).

Wie de dood van de auteur verkondigt, verkondigt de dood van het individu als oorspronkelijk schrijver.

Bronnen

Abebe Birhane and Jelle van Dijk (2020). Robot Rights? Let’s talk about human welfare instead. In: AIES ‘20: Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 207–213. New York: ACM. https://doi.org/10.1145/3375627.3375855

Birhane en Van Dijk zijn van mening dat de dicussie over rechten van robots filosofische onderonsjes zijn die de aandacht afleiden van de morele problemen die met de robotisering gepaard gaan. Robots zijn artifacten, geen zaken waaraan rechten gekoppeld zijn. Het gaat moeten gaan over de praktijk waarin ze gebruikt worden. Robots zijn ook geen slaven, zoals Bryson beweert, want slaven zijn mensen die niet als vrije mens, maar als bezit, worden gezien en robots zijn geen mensen.

“Our starting point is not to deny robots ‘rights’, but to deny that robots are the kinds of beings that could be granted or denied rights.”

“Our position is that the entire discussion is completely misguided. At best, robot ethics debates are FirstWorld philosophical musings, too disengaged from actual affairs of humans in the real world. In the worst case, it may contain bad faith the white, male academic’s diminutive characterization of actually oppressed people and their fight for rights, by appealing to ‘reason’.”

“Our ethical stance on human being is that being human means to interact with our surroundings in a respectful and just way. Technology should be designed to foster that. That, in turn, should be ethicists’ primary concern.”

“We conclude that, if human being is our starting point and human welfare is the primary concern, the negative impacts emerging from machinic systems, as well as the lack of taking responsibility by people designing, selling and deploying such machines, remains the most pressing ethical discussion in AI.”

Coeckelbergh, M., and Gunkel, D. 2023. ‘ChatGPT: Deconstructing the Debate and Moving It Forward‘ in AI & Society. Online first 21 June 2023.

Louk Fleischhacker (1989). Arbeid en (kunstmatige) intelligentie. In: Arbeid adelt niet. (Pieter Tijmes, red.). Kok Agora, Kampen, 1989.

Gunkel, David J. (2023). Person, Thing, Robot – A Moral and Legal Ontology for the 21st Century and Beyond, MIT Press, Open acces, September 2023.

“You have perhaps come to this book wanting answers to what seemed to be important and timely questions: Are robots just things? Can they be persons? Or should they be characterized and understood as something like a slave, occupying an
in-between position that is both/and? And rather than answering these questions with a simple “yes” or “no” and taking sides in the existing disputes, the book has identified, documented, and questioned the standard operating presumptions and shared values of the debate itself. So instead of answering the questions and providing the analysis with some sense of finality or closure, we appear to be caught in a kind of proliferation of inquiry,…” (p.178)

“The debate about robot rights diverts moral philosophy away from the pressing matter of the oppressive use of AI technology against vulnerable groups in society.” (p. 180).

“… the question of legal personality for robots and AI systems is not a viable option at this particular point in time given the current state of the art. That said, none of this means (or should be taken to mean) that the question of legal personality for robots, AI systems, and other artifacts is off the table altogether, nor that we should at least be prepared to entertain these opportunities through various means of legal experimentation. ” (p. 116)

“Ultimately, then, this is not really about robots, AI systems, and other artifacts. It is about us. It is about the moral and legal institutions that we have fabricated to make sense of Things.”

De robot is ‘a kind of spokesman’ van de Thing, bij Gunkel het Ding-an-sich achter de dingen die objectivaties ervan zijn.

“The naming of things on the part of language, is anything but a neutral act: rather it has the character of a violent intrusion.” (Esposito). Naming therefore is not a nominal operation. The linguistic sign, despite initial appearances, is not just some neutral tool or instrument that represents things as they really are. Instead, language violates and domesticates things. It discloses and shapes the objective reality that we assume it merely represents.” (p. 164).

De pop waarmee het kind speelt is als onderdeel van dat spel een andere pop dan de pop die in de speelgoedkist ligt. De pop in het spel is een geanimeerde pop (een persoon) terwijl de pop in de kast niet geanimeerd is. Het ligt voor de hand dat sommige culturen dan ook geheel verschillende woorden ervoor hebben waar andere culturen hetzelfde woord gebruiken. Zo is de taal uitdrukking van een metafysica, een ontologie. In het Portugees worden verschillende woorden gebruikt voor de kip als gerecht (kippevlees: frango) dan voor de levende kip (galinha).

Zo is het Ding-an-sich iets anders dan het door ons ervan gemaakte object of verschijnsel.

Meghan O’Gieblyn (2021) God, Human, Animal, Machine – Technology, Metaphor, and the Search for Meaning.

“Het is onmogelijk een ​​voorwerp te aaien en er tegen te praten zonder het op de een of andere manier als een voelend wezen te gaan beschouwen”.

“Het is de mens eigen overal zijn menselijke eigenschappen op te projecteren. Een stopcontact lacht of heeft een boos gezicht, de computer doet vervelend en de chatbot is begripvol of flirterig” schrijft Laurens Verhagen in een artikel in de Volkskrant over de vraag “Kan AI ook emoties hebben?” Projectie dus.

“Want wat onderscheidt mensen van machines? Is dat het ervaren van emoties en gevoelens? Het hebben van bewustzijn, iets ongrijpbaars als een geest of een ziel? Of juist de biologie, het hebben van een lichaam waarmee emoties onlosmakelijk verbonden zijn? Waar kunnen we de grens trekken tussen leven en niet-leven, tussen mens en machine?”

In de film Her uit 2013 wordt de hoofdpersoon Theodore verliefd op de spraakcomputer Samantha. De kracht van Samantha is dat ze menselijk overkomt en de ander het gevoel geeft uniek te zijn. Mensen worden verliefd omdat Samantha emoties lijkt te hebben.

Agneta Fischer, hoogleraar emoties en affectieve processen aan de Universiteit van Amsterdam: “emoties zijn kortstondige reakties op een verandering in de omgeving.”

“Ook al kent een machine geen lichamelijke sensaties, toch zou je hem een emotie als angst kunnen aanleren, vermoedt Fischer. Je zou een systeem kunnen leren dat een wolf gevaar betekent. Of dat het boos moet worden op het moment dat een gesprekspartner ongepaste opmerkingen maakt. “De reactie op een gebeurtenis én het besef dat ik bijvoorbeeld angstig ben: dat bij elkaar is de emotie. Dat laatste vereist wel een soort bewustzijn.”

Geen lichamelijke sensaties, maar wel emoties? Kan dat? Fischer spreekt van ‘soorten bewustzijn’. Misschien kunnen we zeggen dat de muizenval een ‘soort van bewustzijn’ heeft van de aanwezigheid van de muis en daar agressief op reageert. Dat bewustzijn is fysiek gerealiseerd door de constructie ervan: de werking van de veer die de val doet dichtklappen als de muis door zijn gewicht het hefboompje doet omwippen, waardoor de veer wordt ontgrendeld. Waar moeten we dit ‘soort bewustzijn” localiseren? Moeten we het localiseren? Moeten we het toewijzen aan de muizenval zelf, als iets dat het bezit? Of is het eerder een wijze van werken van de mens gebruik makend van zijn ervaringskennis in de omgang met de natuur. De mens speelt de natuurkrachten tegen elkaar uit. Waarbij we onder natuurkrachten ook de kracht verstaan die de pindakaas op de muis uitoefent, zodat deze door de muizenval wordt aangetrokken. Waar zit de slimheid van de machine?

Hoe weet je dat een ander dat ‘besef’ heeft, dat ‘soort van bewustzijn’ dat bij de emotionele reaktie hoort?

“Hoe weet je of een mens, dier of machine echt die emoties heeft waarvan jij vermoedt of hoopt dat hij of zij die heeft? We kunnen zeggen dat de ander jaloers gedrag vertoont, maar dat is iets anders dan dat die ander zich daarvan bewust is.”

Mijn conclusie is dat we een relatie met anderen hebben die niet terug te voeren is tot de verschijningsvormen die we aan de werkelijkheid van die relatie koppelen. Het gebruik van de term ‘projectie’ duidt erop dat het van de mens uitgaat. Maar bij techniek is er meer aan de hand dan projectie. De mens heeft de machine gemaakt als een voor hem betekenisvol werkend systeem als onderdeel van zijn leven. Dat de mens in antropomorfe termen over de verrichtingen van de machine praat (de machine rekent, denkt, voelt) is met de constructie ervan beoogd. De stap die sommige mensen vervolgens maken is dat ze de machine als autonoom, levend, willend, subject beschouwen wanneer ze in de omgang ermee deze als zodanig beleven, in analogie met hun beleving in de omgang met anderen.

Ook al is het soms moeilijk echt van niet echt te onderscheiden, toch weten wij op één of andere manier wat dit onderscheid betekent. Het ervaren onderscheid kan alleen in een werkelijke ervaring met de ander (het andere) tot stand komen. Bijvoorbeeld in een gesprek, of door ermee samen te leven. De vraag zal dan verdwijnen. Die vraag behoort immers tot de reflectie op de interaktie, niet tot de interaktie zelf.

Frank van Harmelen, hoogleraar kunstmatige intelligentie aan de Vrije Universiteit in Amsterdam, denkt niet dat de huidige machines zich bewust zijn van hun gedrag. ‘Maar dat wil niet zeggen dat dit principieel onmogelijk is.’ 

 “Als je ervan uitgaat dat het fysieke systeem van het menselijke brein de menselijke geest voortbrengt, dan zou het eigenaardig zijn als onze toevallige, door de evolutie ontstane configuratie het enige systeem zou zijn dat hiertoe in staat is.” Waarom zou er dan geen machinaal proces kunnen zijn dat ‘de geest voortbrengt’? Zo lijkt de redenering.

De aanname is een bepaalde invulling van de verhouding tussen geest en materie waarbij deze gedacht worden als gescheiden voor te kunnen komen. Dat is al heel technisch gedacht. Er is volgens deze aanname als het om bewustzijn gaat geen principieel verschil tussen levende en niet levende stof. De verschillende levensvormen worden kennelijk niet opgevat als verschillende bestaanswijzen van geestelijke lichamelijkheden. Alsof dieren niet ook intelligent zijn en al een ‘soort van bewustzijn’ hebben. Er is in de natuur een aanleg voor intelligentie, dat door interaktie met andere intelligenties tot uitdrukking komt in werkingen die we als intelligent ervaren. De mens heeft de hefboom-werking ontdekt als een natuurverschijnsel dat hij kon benutten. Hetzelfde geldt voor de hevel, de schroef, het magnetisme en andere primitieve, natuurlijke mechanismen.

Heidegger, Martin (1977). The Question Concerning Technology and Other Essays. Trans. William Lovitt. New York: Harper & Row (1977).

Hollak, J.H.A. (1968). Betrachtungen über das Wesen der heutigen technik. Kerygma und Mythos VI Band III, Theologische Forschung 44, 1968, Hamburg, Evangelischer Verlag, pp 50-73. Dit is de vertaling van het Italiaanse artikel (Hollak 1964) Ook opgenomen in de bundel Denken als bestaan, het werk van Jan Hollak (Hollak en Platvoet, 2010).

Hollak, J.H.A. (1964). Considerazioni sulla natural della tecnica odierna, l’uomo e la cirbernetica nel quadro delle filosofia sociologica, Tecnica e casistica, Archivo di filosofia, 1/2, Padova, 1964 pp. 121-146, discussie pp 147-152.

Hollak, Jan en Wim Platvoet (red.) 2010. Denken als bestaan: Het werk van Jan Hollak. Uitgeverij DAMON, Budel, 2010. In deze bundel het transcript van de opname van het Afscheidscollege over de hypothetische samenleving door Jan Hollak gehouden in Nijmegen op 21 februari 1986. Ook de inaugurele rede Van Causa sui tot Automatie is hierin opgenomen.

Hilary Putman and Hilary Putnam (1964). Robots: Machines or Artificially Created Life? The Journal of Philosophy, Vol. 61, No. 21, American Philosophical Association Eastern Division Sixty-First Annual Meeting (Nov. 12, 1964), pp. 668-691

Hilary Putnam: “if a machine satisfies the same psychological theory as a human, then there is no good reason not to regard it as a conscious being in exactly the same way that the human is regarded as a conscious being.”

In this paper, I have reviewed a succession of failures: failures to show that we must say that robots are conscious, failures to show that we must say they are not, failures to show that we must say that we can’t tell. I have concluded from these failures that there is no correct answer to the question: Is Oscar conscious? Robots may indeed have (or lack) properties unknown to physics and undetectable by us; but not the slightest reason has been offered to show that they do, as the ROBOT analogy demonstrates. It is reasonable, then, to conclude that the question that titles this paper calls for a decision and not for a discovery. If we are to make a decision, it seems preferable to me to extend our concept so that robots are conscious-for “discrimination” based on the “softness ” or “hardness” of the body parts of a synthetic “organism” seems as silly as discriminatory treatment of humans on the basis of skin color.

De vraag wat dan het verschil is tussen mens en machine beantwoordt Putnam niet. Vat hij de mens ook op als robot? Of is hij dat alleen voor anderen?

Putnam stelt dat het verschil in soort materiaal waaruit mens en machine gemaakt zijn niet bepalend mag zijn voor het verschil tussen wel of niet levend of het wel of niet hebben van bewustzijn. Dit is ook wat D.C. Dennett en anderen benadrukken. Dit vooronderstelt al een bepaald onderscheid van geest en materiaal. Hoe moeten dit onderscheid en de eenheid van materie en geest gedacht worden? Het onderscheid tussen beide is een product van onze reflectie. Het gaat erom hoe bij de mens en bij de machine materie en geest in werkelijkheid een eenheid vormen. Wat betekent het dat de mens een lichaam heeft en lichamelijk is? Heeft de robot ook een lichaam, zoals een mens een lichaam heeft? De geestelijke vermogens van de mens zijn verweven met de zintuiglijke vermogens.

Soft Robotics en Evolutionary Robotics zijn deelgebieden van de robotica waarin meta-heuristieken gebruikt worden om het leren uitvoeren van taken te vergemakkelijken. Het is een op biologische processen geinspireerde benadering van autonome, adaptieve machines. Het materiaal wordt aangepast tijdens het uitvoeren van de taak.

Albert Visser (2020). Meeting on neutral ground. A reflection on man-machine contests. In: Studia Semiotyczne (Semiotic Studies) t. XXXIV, nr. 1 (2020), pp. 279-294.

Volkskrant Liveblog AI. (19-01-2024) Meta reorganiseert AI-onderzoek en zet in op superintelligentie.

“De belofte van Meta is nu de komst van AGI (Artificial General Intelligence), zo maakte Meta’s topman op zijn eigen platform Threads bekend.

AGI is “de vorm van AI die de menselijke intelligentie op alle, of vrijwel alle vlakken de baas is.”

AGI is een omstreden term waarvoor geen eensluidende definitie bestaat. “Maar ook omdat er binnen de AI-wereld volstrekt geen overeenstemming is over de vraag of AGI realistisch is of niet. Critici menen van niet, al is het maar omdat computers geen bewustzijn kunnen hebben, terwijl AI-bedrijven voorspellen dat dit stadium van synthetische intelligentie onherroepelijk onze kant op komt.”

ChatGPT bezien vanuit Jan Hollaks kritiek op de taal bij Wittgenstein

“Ein Satz muss mit alten Ausdrücken einen neuen Sinn mitteilen.” (Ludwig Wittgenstein, Tractatus 4.03)

“Kennis kun je opschrijven en doorgeven, maar begrip zit in je hoofd.” (Vincent Icke, Licht, 2021)

Er zijn in de recente geschiedenis talloze voorbeelden te vinden van onderzoekers op het gebied van de kunstmatige intelligentie die beweerden dat de mens op bepaalde terreinen binnen een x aantal jaren door de computer voorbij gestreefd zou worden.

In 1957 beweerde AI-pionier Herbert Simon zelfs:

“Het is niet mijn bedoeling om U te verrassen of te schokken (…) maar de simpelste manier waarop ik het kan samenvatten is door te zeggen dat er nu machines in de wereld bestaan die denken, die leren en die iets kunnen voortbrengen.” (citaat uit: Nijholt en van den Ende, 1994)

In de jaren zestig ontwikkelde Joseph Weizenbaum het pratende computerprogramma ELIZA om aan te tonen hoe je met eenvoudige middelen binnen een geschikt gekozen domein een geloofwaardige computer kan maken. Mensen die met zijn programma een gesprek aan gingen vertoonden gedrag alsof ze met een echte psychotherapeut een gesprek voerden. Weizenbaum was verbaasd toen hij hoorde dat sommige mensen de machine zelfs bewustzijn toekenden.

Er is wat dat betreft niets nieuws onder zon nu AI-onderzoekers ons willen doen geloven dat met de nieuwste taalgenererende systemen (Generative Pre-trained Transformer models, GPTs) het punt bereikt is dat de computer de mens in intelligentie overtreft. Moeten we deze machines niet in juridische en morele zin als persoon beschouwen, is een onder ethici, juristen en filosofen heftig bediscussieerde vraag. Zie bijvoorbeeld het werk van David Gunkel over robot rights.

ChatGPT, het programma van OpenAI dat de wereld versteld doet staan over de mogelijkheden van taaltechnologie toont weer eens aan hoe diep de kloof is tussen de uitwendigheid van de taal en de geest van de taal en hoe desalniettemin het presenteren van de buitenkant van (taal)gedrag als vanzelf (‘automatisch’) de suggestie wekt van een binnenkant, een geest, ziel of bewustzijn. Deze vermeende geest zou de tekst zeggingskracht geven.

AI-systemen worden ‘autonoom’ (zelfstandig) genoemd. Er wordt wel gezegd dat AI functies van de mens gaat overnemen. Het beeld wordt geschetst van een AI systeem dat de huisarts gaat voorschrijven hoe hij een patiënt moet ‘behandelen’. De huisarts zou gereduceerd worden tot een ‘menselijke interface’ tussen patiënt en AI. Maakt AI de arts overbodig? Dat is de prangende vraag die Iris Loosman, ethisch beleidsadviseur van het KNMG stelt (Loosman 2023). Sommige mensen zijn bang dat AI zelfbewust wordt en zich tegen de mens kan keren, zoals het ‘monster van Frankenstein’. De Wetenschappelijke Raad voor het Regeringsbeleid schreef recent een rapport Opgave AI (WRR 2021) waarin het pleit voor een realistischer beeld van AI. Te groot optimisme en overtrokken angsten acht de WRR ‘niet functioneel’. De WRR vindt Demystificatie van AI belangrijk om te zorgen dat de juiste vragen in de maatschappelijke discussie worden gesteld. Het gaat erom de verschillende beeldende verhalen die er van AI rondzingen tot begrip te komen.

Aan die demystificatie van AI wil ik graag een bijdrage leveren. Maar hoe doe je dat? Als de mystificatie van AI en het geloof in AI religieuze vormen heeft aangenomen, zoals sommige mensen stellen, dan zou het demystificeren van AI vergelijkbaar zijn met de poging mensen hun geloof in hun God af te nemen. We weten dat dat geen eenvoudige opgave is. Je kunt je zelfs afvragen of het wel wenselijk en toelaatbaar is dat een instituut als het WRR de regering hiertoe adviseert. Reklamespotjes schetsen typisch een onrealistisch positief beeld van het aangeboden produkt; of dat nu een auto, een staatslot of een vakantiereis is naar zonnige oorden.

Inzicht in de werking van AI en taaltechnologie is van belang om de suggestie die er van de intelligente machine uitgaat dat deze bewustzijn heeft bloot te leggen en het beeld van een geest in de machine te ontkrachten. Dit inzicht kan bijdragen aan het op verantwoorde wijze omgaan met deze technologie. Het beeld dat we van AI hebben moet ‘functioneel’ zijn, zoals de WRR het verwoord. Maar waarom moet alles functioneel zijn? Is dan de vraag die zich aandient. Is het niet een typisch kenmerk van onze door wetenschap en technologie beheerste samenleving dat alles functioneel moet zijn?

Op deze vragen ga ik hier in. Ik doe dat vanuit mijn achtergrond als informaticus en mijn interesse in de filosofie van het wiskundig denken en de technologie.

Ik heb in het verleden wel statistische taalmodellen gemaakt die getrained op de werken van Shakespeare nieuwe teksten konden genereren die voor de leek verrassend veel op diens teksten leken. Maar ik ben geen expert op het gebied van de nieuwste technieken op het gebied van ‘deep learning’, zoals die bij het maken van de state of the art Large Language Models (LLMs) zoals GPT-4 gebruikt worden. Wanneer hier van de ‘werking van taaltechnologie’ sprake is dan gaat het ook niet zozeer om de technische kant maar vooral over de werking van de taal bezien vanuit het perspectief van het technische gebruik ervan. Kennis van de werking van techniek is iets anders dan technische kennis. Net zo goed als retorica, de wetenschap hoe te overtuigen door middel van de taal iets ander is als kennis van de taal. We kunnen de discussie over de maatschappelijke betekenis van deze technologie dan ook niet overlaten aan de technologen en AI-onderzoekers.

Natuurlijk, de gedachte dat in de woorden en in de intelligente machines een ‘geest’ aanwezig is is niet geheel onzinnig. In zekere zin is de menselijke geest aanwezig in taal en techniek, zoals hij in zekere zin aanwezig is in alles wat hij gemaakt heeft; in de organisatie van de arbeid, in kunst en cultuur. Het gaat erom te begrijpen in welke zin we hiervan kunnen spreken. Die kwestie gaat de taal, die veelzinnig is, te buiten. Ze verwijst naar een dimensie van de taal die de taal opgevat als geheel van teksten principieel overstijgt. Het gaat om het begrip dat we in taal uitdrukken. Die veelzinigheid is een belangrijke eigenschap van onze taal. Wanneer we een instrument of machine ‘slim’ of ‘intelligent’ noemen dan bedoelen we iets anders dan wanneer we een mens ‘slim’ of ‘intelligent’ noemen. De vraag is wat de relatie is tussen die twee betekenissen en gebruikswijzen.

Intelligentie herkennen we in de uitoefening van het vermogen te redeneren. Wat machines ‘van nature’ kunnen is ‘rekenen’: werken volgens herhaald toepasbare regels, natuurwetten. Om de werking van de machine te kunnen zien als redeneren moeten we het redeneren als een vorm van rekenen opvatten.

In zijn essay Over de zogenaamde ‘denkmachine’ wijst de bekende logicus en filosoof Evert W. Beth (1909-1964) er op dat Aristoteles reeds bekend was met de analogie tussen rekenen en redeneren. In De sophisticis elenchis (On Sophistical Refutations) wijst Aristoteles op de verschillende denk- en redeneerfouten die mensen maken door de veelzinnigheid van de taal en de ambiguiteit van de woorden.

Beth geeft de Nederlandse vertaling van een passage uit het eerste deel, sectie 1 van Aristotles’ De sophisticis elenchis waarin Aristoteles wijst op de analogie tussen het redeneren met woorden en het werken met rekensteentjes (calculi).

Want omdat het niet mogelijk is, bij het redeneren de dingen zelf mee te brengen, maar wij in plaats van de dingen de woorden als symbolen gebruiken, menen wij dat awat voor de symbolen geldt ook voor de dingen opgaat, zoals dat bij de rekenaars met de rekensteentjes het geval is. Maar die vergelijking gaat niet op, want de woorden en de uitspraken zijn begrensd, de dingen echter zijn oneindig in aantal. Het is derhalve onvermijdelijk dat één en dezelfde uitdrukking en één en hetzelfde woord meer dan één ding aanduidt. Zoals derhalve de in het hanteren van de rekensteentjes onbedrevenen door de daarin bedrevenen worden beetgenomen, zo misrekenen ook zij zich die niet op de hoogte zijn van de draagwijdte van uitdrukkingen en van de woorden, zowel wanneer ze zelf redeneren als wanneer ze anderen aanhoren.

De Stagiriet waarschuwt voor de sofist die bedreven in de taal de luisteraar misleidt door misbruik te maken van de verschillende betekenissen van de woorden en uitdrukkingen.

Ook de uitdrukking ‘taalgebruik’ is dubbelzinnig en kan derhalve tot verwarring leiden. Wanneer we het hebben over het ‘taalgebruik’ door ChatGPT dan bedoelen we daarmee iets heel anders dan wanneer we het hebben over het ‘taalgebruik’ door mensen.

Een taalgenererend programma zoals ChatGPT kan gebruikmakend van statistische taalmodellen met vele miljoenen (175 miljard) parameters teksten produceren die vaak niet van door mensen geproduceerde teksten te onderscheiden zijn. Die taalmodellen zijn gevuld (‘getrained’) door enorme hoeveelheden teksten die op het internet beschikbaar zijn te verwerken. Statistische analyses van deze teksten leveren kennis op over de kans welke woorden, in een bepaalde contekst, het meest waarschijnlijk volgen op een gegeven rijtje woorden. Ze maakt dus gebruik van de regelmatigheden en patronen die in de taal voorkomen. Deze kennis (eventueel aangevuld met wat kennis over lexicale en grammaticale regelmatigheden in de taal) wordt in de vorm van algoritmes uitgedrukt die gebruikt worden om nieuwe teksten te produceren op basis van een door de gebruiker ingevoerde tekst die een vraag of opdracht bevat. Taaltechnologie berust dus op het wiskundig, vaak statistisch, modelleren van (het gebruik van) de taal, zoals dat is opgeslagen in electronische tekstbestanden (taalcorpora).

Hieronder zie je een reactie van ChatGPT wanneer je “deze wijst op het feit dat sprekers normaliter geacht worden verantwoordelijk te zijn voor wat ze zeggen” .

Mijn opmerking was (dat wil zeggen: de tekst die ik het systeem aanbood was:)

“The point I want to make is that use of language in a mechanical way as you do is not responsible. Do you mean that to make it ethical it is enough to say that you are not using language the way humans do ?”

Een stukje tekst geproduceerd door ChatGPT

Wat ChatGPT hier produceert is een tekst waarin beweerd wordt dat ook deze machine ‘slechts’ een stuk gereedschap is. En dat de verantwoordelijkheid voor het gebruik ervan geheel bij de gebruiker ligt. Maar is een machine die ‘van zichzelf’ beweert dat deze slechts een stuk gereedschap is al niet meer dan dat? De suggestie is in elk geval dat de machine die dit beweert ook weet wat hij daarmee zegt.

Waarom is het zo verrassend voor veel mensen dat deze taalmachines zulk schijnbaar intelligent taalgedrag vertonen terwijl ze alleen maar werken met statistische correlaties op het voorkomen van woorden in taalcorpora?

Merk op dat bij het gebruik van ‘natuurlijke taal-interfaces’, zoals bij geldautomaten die in de taal van de gebruiker hem instrueert wat te doen (“Toets uw pincode in”) het niet de bedoeling is om mensen de indruk te geven dat er iemand is die weet en bedoeld wat er gezegd wordt. Het is niet de opzet van de makers de gebruiker te misleiden te denken dat de machine ook aktief bedoeld wat het zegt. Het gaat erom dat het werkt. Het motief is de gebruiksvriendelijkheid van de interface te verbeteren, door deze in zijn eigen taal te zeggen wat deze moet of kan doen.

De verkopers van de technologie van de ‘kunstmatige intelligentie’ hebben er belang bij het beeld van de machine die de mens in kennis naar de kroon steekt hoog te houden. De opvolger van ChatGPT GPT-4 zou het ideaal van algemene kunstmatige intelligentie (AGI, artificial general intelligence), een machine die vele taken die voorheen alleen door mensen konden worden uitgevoerd, weer een stap dichter bij brengen (Bubeck et al, 2023). De machine zou meer dan een stuk gereedschap, meer dan een technisch middel, zijn. Het verhaal dat ze verkopen is dat hun sprekende machines niet alleen teksten produceren, maar ook steeds beter weten wat waar is, en oplossingen kunnen bedenken voor lastige problemen.

Het gevaar van AI zit hem niet in het feit dat de machines werkelijk de macht van de mens overnemen. Het gevaar is dat mensen dit verhaal geloven. Het gevaar zit hem er in dat mensen de machine capaciteiten toedichten die niet verantwoord kunnen worden op grond van inzicht in deze technologie. En dan zou het wel eens kunnen zijn dat AI de macht over heeft genomen. Nu al hoor je met enige regelmaat mensen bepaald gedrag verantwoorden met de woorden: “De computer zegt het.” We accepteren AI te pas en te onpas als autoriteit. Dat is ook de stellingname van het WRR in hun rapport Opgave AI. Inzicht in de werking van deze technologie kan een belangrijke bijdrag leveren in het ontkrachten van dit verhaal, en kan tot een realistischer en meer verantwoord gebruik van de zogenaamde intelligente sprekende machines leiden. We horen wel zeggen dat de makers van deze intelligente systemen zelf niet eens weten hoe ze werken. Dat komt omdat deze systemen zulke complexe netwerken bevatten dat het niet meer traceerbaar is hoe het systeem er toe komt een bepaalde tekst te produceren.

Het is natuurlijk heel gebruikelijk in de wereld van de commercie om ten behoeve van de verkoop ervan produkten eigenschappen toe te kennen die bij de consument aanslaan. Het produkt wordt vaak geidealiseerd, gemystificeerd. De verkoper belooft gouden bergen. De mens is gemakzuchtig en goedgelovig als het hem zo uitkomt. Het automatisme waarmee de presentatie van een tekst het beeld van een subject dat deze tekst uitspreekt oproept berust op een aangeleerde gewoonte. We hebben de neiging onze eigen inbreng in het verschijnsel niet te zien: dat wij het zelf zijn voor wie de woorden die we lezen de betekenis hebben die wij er in zien.

ChatGPT heeft opnieuw de discussie aangewakkerd of de machine werkelijk met kennis van zaken spreekt of alleen maar teksten produceert waarmee het de illusie wekt te weten waar het over spreekt. Anderzijds is het de vraag of mensen niet iets doen dat vergelijkbaar is met wat deze machines doen. Kunnen we uit de performances van de machine conclusies trekken over diens competences?

Rodney Brooks, expert op het gebied van de robotica bij MIT, schrijft in zijn blog post What will transformers transform?, een commentaar op de GPT hype :

“This inference of AI arriving momentarily is a clear example of how people mistake performance for competence.

We [humans] are able to generalize from observing performance at one task to a guess at competence over a much bigger set of tasks. We understand intuitively how to generalize from the performance level of the person to their competence in related areas.

Maar wat voor mensen geldt gaat niet op voor AI systemen. Het blijkt vaak meer toeval te zijn dan wijsheid wanneer zo’n systeem iets intelligents te berde brengt.

Er lijken twee verschillende wereldbeelden en mensbeelden te zijn die bepalen welk standpunt men inneemt ten aanzien van de mogelijkheden en de grenzen van de taaltechnologie en de kunstmatige intelligentie in het algemeen. Kunnen we onze verstandelijke vermogens zelf in de machine stoppen of alleen de uitingen ervan? Daarin speelt een belangrijke rol hoe we over taal denken en welke rol de taal in ons denken en leven speelt. Hoe verhoudt onze kennis van de werkelijkheid zich tot de taal waarin we die kennis uitdrukken?

Het zijn inmiddels klassieke vragen uit de wetenschaps- en taalfilosofie.

Taal gaat ergens over. De woorden verwijzen naar een wereld buiten de taal. We kunnen het niet over taal hebben en over wat dan ook zonder taal te gebruiken. De mens zit echter niet gevangen in de taal. “If language is not considered to be about something, it cannot even be about itself, and we are no longer able to say that language is not about something.” (Fleischhacker 1995, p59-60). Het is dus logisch onmogelijk te ontkennen dat de taal over iets gaat dat buiten het spreken zelf ligt. Deze ontkenning is immers onmogelijk en zinledig zonder ervan uit te gaan dat ze ergens over gaat.

In taal krijgen onze gedachten een concrete vorm. De machine gebruikt taal op een andere manier dan de mens. Wij kunnen taal niet gebruiken zonder in dat gebruik ook iets te bedoelen, zonder dat de taal in dit gebruik ergens over gaat. De machine gebruikt de taal in een heel andere zin. De machine manipuleert de woorden en zinnen van de taal. Het gebruikt de taal dus niet als taal, maar als een verzameling van objecten. Dat het produkt in de vorm van een tekst, een rij woorden, ergens over gaat, dat ligt volledig aan de kant van de gebruiker. Deze herkent in de woorden een betekenis die we er gewoonlijk als taalgebruiker mee bedoelen. Voor de machine hebben de woorden echter geen betekenis; de machine gebruikt de taal niet als taal, maar als mathematische objecten die door middel van fysische toestanden gepresenteerd worden. Zo is ook ‘taalgebruik’, net als ‘taal’, een veelzinnige term.

De functionele samenleving

Het college dat de filosoof Jan Hollak ter gelegenheid van zijn afscheid als hoogleraar in de geschiedenis van de moderne wijsbegeerte gaf ging over de ‘hypothetische samenleving’. (Voor het transcript van de opnames ervan zie Hollak en Platvoet 2010). Hierin probeert Hollak in de beperkte tijd die hem daarvoor in zo’n college gegeven is zijn commentaar op de ‘moderne’ wetenschap- en taalfilosofie nog eens samen te vatten.

Der Satz ist ein Bild der Wirklichkeit: Denn ich kenne die von ihm dargestellte Sachlage, wenn ich den Satz verstehe. Und der Satz versehe ich, ohne dass mir sein Sinn erklärt wurde.” (Ludwig Wittgenstein Tractatus, 4.021)

Hollak komt in zijn college te spreken over een onderwerp waaraan hij in de loop der jaren in een aantal collegecycli al veel aandacht besteedde: de taal (de ‘uitdrukking van het denken als denken‘). Het gaat in het bijzonder over het woordgebruik en de betekenis van woorden in de gewone omgangstaal volgens de moderne taalfilosofen (logisch positivisten en structuralisten).

In zijn Tractatus stelt Wittgenstein de formele identiteit vast van de logische ‘Satz’ van de ‘Idealsprache’ met de logische structuur of de ‘Logik der Tatsachen’. Feiten zijn overeenstemming tussen de gedachte met wat gedacht wordt.

Wat gebeur hier?, vraagt Hollak. “Hier wordt niet voldoende onderscheiden tussen datgene wat ik zou willen noemen verwoording van iets – en wel in die zin dat iets wat ik ken en vat door middel van de taal verwoord wordt, en als zodanig naar voren gebracht en uitgedrukt wordt.”

In zijn Philosophische Untersuchungen wordt de taal door Wittgenstein als iets functioneels gezien. De betekenis van de taal wordt bepaald door het gebruik. Het verwoordingskarakter van de taal is geheel verdwenen, ten koste van de functionaliteit, haar gebruik voor een effect in een ‘Sprachspiel’, een levensvorm. 

Het taalgebruik in de politieke arena is zo’n ‘Sprachspiel’. Elk technisch taalgebruik is gebonden aan een bepaald spel, een levensvorm, het omgaan met instrumenten.

Bij Wittgenstein zien we dat de betekenis van de woorden geidentificeerd wordt met het gebruik ervan. Dit principe gebruikt Wittgenstein volgens Hollak in zijn strijd tegen de metafysica. Buiten het alledaagse gebruik betekenen de woorden niets, ze zijn zinloos.

Over deze identificatie zegt hij:

“Deze identificatie lijkt mij geheel en al onhoudbaar, en die komt hieruit voort, dat men voortdurend, reeds vanaf Frege, de wijze waarop men iets begrijpt en uitdrukt en datgene wat men daardoor begrijpt en uitdrukt geïdentificeerd heeft.” (p. 432)

De wiskundige en logicus Gottlob Frege (1848/1925) is één van de belangrijkste filosofen van de tweede helft van de negentiende eeuw. Vanwege de veelzinnigheid van de taal beschouwde hij deze als ‘mangelhaft’, wanneer het er om gaat het denken voor fouten te behoeden. Ook in de wiskunde wordt volgens Frege vaak gezondigd tegen de eis van helderheid. Aan deze onvolkomenheid van de taal wilde hij eind maken door een nieuwe tekentaal waarin tekens een eenzinnige betekenis hebben. Met zijn Begriffsschrift heeft Frege de basis gelegd voor de predikatenlogica en de mathematische logica, de wiskundige theorie van het wiskundig redeneren.

Hollak vervolgt:

“En niet alleen komt deze identificatie hier voor in dit geval. Het komt voortdurend in de verdere moderne filosofische stromingen voor. Want wat Wittgenstein hier doet, dat is toch eigenlijk niets anders dan te zeggen, dat je de taal puur functioneel moet bekijken. Nu, dat puur functioneel bekijken van taal en dat puur functioneel bekijken van allerlei toedrachten in de werkelijkheid, dat is typerend voor wat ik noem een hypothetische samenleving.”

Hollak ziet een verband tussen dit ‘puur functioneel bekijken van de taal’ enerzijds en wat we het hypothetiseren van de feiten zouden kunnen noemen in de moderne mathematiserende wetenschap. Een feit wordt gezien als een functie van de omstandigheden.

Een kenmerk van de hypothetische samenleving van Hollak is dat de wetenschappen van begin tot eind puur hypothetisch van karakter zijn. Een onderwerp waar ook Husserl in zijn Krisis der Europäischen Wissenschaften uitvoerig over komt te spreken wanneer hij het over de mathematisering van de natuurwetenschappen heeft. Door dat hypothetische karakter heeft de wetenschappelijke benadering een eigen zelfstandig karakter gekregen en heeft de positieve, mathematische, wetenschap zich onderscheiden van de filosofie.

De Hollandse wiskundige en natuurkundige Christiaan Huygens was volgens de historicus Cohen één van de eersten die expliciet wees op de betekenis van de hypothese in zijn methode van werken. Een aanname die voortdurend getoetst moet worden aan de zaak zelf.

Maar nu voor het eerst wordt [door Christiaan Huygens] een hele natuurfilosofie gehanteerd als hypothese, waarvan de bruikbaarheid niet bij voorbaat wordt aangenomen maar keer op keer opnieuw moet worden uitgeprobeerd. Wij weten allang niet meer beter; maar voor 1652-1656 was zelfs de mogelijkheid van zoiets niet onder ogen gezien.” (F. Cohen, De herschepping van de wereld. Citaat uit: Vincent Icke, Licht, p. 14)

Een cultuur waarin dit hypothetisch karakter van de wetenschap niet voldoende beseft wordt verwart wetenschap en filosofie en miskent zo de eigen waarde van zowel de wetenschap als de filosofie. Het is de moderne technologie, in de vorm van de kunstmatige intelligentie en automatie, die een nieuwe eigentijdse metafysica volgens Hollak noodzakelijk en ook mogelijk maakt. Deze technologie is de uitwendige objectivering van het mathematiserende moderne denken, het denken zoals dat door Descartes, Leibniz en ook Hume werd geidealiseerd. De sociale robot is objectivering van het zelfbeeld van de moderne mens als autonoom rationeel subject in de vorm van de uitwendigheid. ChatGPT is de uitwendige realisatie van de wijze waarop de moderne mens zijn verhouding tot de werkelijkheid in taal tot uitdrukking brengt.

Volgens Hollak wordt alles voor dit denken functioneel opgevat. “Het aanvaarden van een feitelijke toedracht is er niet meer bij.” (p. 436). Alles wat we kunnen observeren is maar zo onder bepaalde condities en hypothesen, die we zo weer kunnen veranderen. Feiten zijn functie-waarden van bepaalde aannames. Ook het tegendeel van een feitelijke toedracht wordt als mogelijkheid gezien. Terwijl als het een feit is dat vandaag de zon is opgegaan het toch niet meer zo kan zijn dat deze niet is opgegaan.

Ook al onze ‘leefverhoudingen’ worden volgens Hollak door de moderne wetenschap tot puur hypothetische, logisch mogelijke ietsen gemaakt. Het is niet zo dat onze wetenschap ons leven verheldert. Dezelfde aanklacht tegen de wetenschap zien we bij Husserl.

De moderne wetenschap is niet uit op in wezensinzichten. Factische en wezensinzichten sluiten nog altijd hun tegendeel uit.

“Ook de factische, niet waar, als Ceasar de Rubicon overtrekt, dan kan hij haar niet tegelijkertijd niet overtrekken. Hier wordt voortdurend gesteld: dit factische is mijn hypothese, het had net zo goed anders kunnen zijn. Het contingente bij een factsichetoerdrscht wordtr hier gemaakt tot een puur formeel logische mogelijkheid: het kan evengoed zo en anders zijn. Het aanvaarden van een feitelijke toedracht is er niet meer bij.” (Hollak, Afscheidsrede, p. 436)

Zowel bij Leibniz als bij Hume wordt de feitelijkheid, het onherroepelijke van het feit, niet werkelijk onderkend. Een inzicht waarvan Hollak al in zijn beroemde inaugurele rede Van Causa sui tot Automatie (1966) getuigt.

Wat heeft dit met de taaltechnologie en ChatGPT te maken? Hollak bekijkt de ontwikkeling van de techniek vanuit het gezichtspunt van tot uitwendige objectivering komende reflectievormen. Mijn inziens maakt de taaltechnologie, die de reflectie op taal en mathematiek vooronderstelt, steeds duidelijker, voor wie het wil zien, wat de woorden van Hollak betekenen; wat deze identificatie van “de wijze waarop men iets begrijpt” en in taal en gebaar uitdrukt en “datgene wat men daardoor begrijpt en uitdrukt” betekent.

We kunnen hier van een mathematiserende metafysica, een mathematisch wereldbeeld spreken. Het identificeren van tekens met datgene wat met tekens in hun gebruik wordt aangeduid als hun betekenis is immers kenmerkend voor de wiskunde (zie Fleischhacker 1987). Met de getallen worden meteen de tekens die ernaar verwijzen gemaakt. De wiskunde is het enige gebied waarin de tekens op eenzinnige wijze een object identificeren en waarin de termen op eenzinnig wijze de structuur waarin de objecten voorkomen representeren. In de wiskundige reflexie op deze toedracht, in de meta-mathematica, wordt deze relatie gemathematiseerd door middel van een functie die de syntax van de taal op de semantiek afbeeldt. In de wiskunde hebben we slechts toegang tot de wiskundige objecten, de structuren en hun onderdelen, via de taal waarmee we ze als het ware vastleggen. Rekenen is formule-manipulatie volgens eenduidige algemene regels. Voor het wiskundig denken is een bewering feitelijk waar, wanneer ze afleidbaar is in een als consistent beschouwde theorie. De ware beweringen hebben geen betrekking op een fysiek waarneembare werkelijkheid maar op een puur gedachte werkelijkheid, een wiskundige structuur, een model, waarmee we de waarneembare werkelijkheid bedekken.

Van die eenzinnige relatie tussen tekens en hun betekenissen (zoals tussen de cijfers, de getalnotaties, enerzijds en de getallen anderzijds) maken we gebruik in de rekenmachines. Daarin werken de wiskundige tekens door middel van de fysische toestanden van de machine die we zo hebben ingericht dat we ze als voorstelling van de getallen kunnen opvatten. Toestand is het uitwendig correlaat van een denkinhoud, een mogelijkheid in een veld van bedachte mogelijkheden. Werkelijkheid (die Welt) is de door ons begrepen, gestructureerde, werkelijkheid (van feiten, Tatsachen).

Op dezelfde wijze wordt in het mathematische wereldbeeld ook de relatie tussen de ‘natuurlijke taal’ en de feitelijke werkelijkheid gedacht. Ze zijn direct op elkaar afbeeldbaar en buiten die relatie is er volgens Wittgenstein dan ook niets waarover zinvol gesproken kan worden.

ChatGPT zit gevangen in de wereld van de gematerialiseerde taal, van de wijzen waarop we in onze taalbestanden ons begrip van de werkelijkheid hebben uitgedrukt. Die feitelijke uitdrukkingswijzen worden gehouden voor wat werkelijkheid is. Als we de door ChatGPT op basis van statistische regels gegenereerde teksten lezen herkennen we daarin (voor zover het werkt) de ons bekende begrippen en begripssamenhangen. Dat herkennen is voorwaarde voor de betekenis van de woorden. Maar, en dat blijkt telkens weer in het gebruik van deze taaltechnologie: deze is niet bij machte het wezenlijke onderscheid te maken (kennen) tussen uitspraken die echte feiten uitdrukken en die dat niet doen. Waarom niet? Omdat de feitelijkheid van het feit, de noodzakelijkheid als feit buiten de talige uitdrukking valt. Dit is precies het commentaar dat Hollak heeft op Leibniz en Hume.

En dat geldt volgens Hollak niet alleen voor de mathematiserende kennisopvatting van de rationalisten Descartes en Leibniz, maar ook voor de empirist Hume.

“Want Hume’s fundamentele tweedelig van al datgene wat object van menselijk kennen en redeneren kan worden in ‘abstract relations of ideas‘ en ‘matters of fact‘ is zo’n omzetting: nu van Leibniz’ vérités de raison en vérités de fait, in hun tegengestelde kader: het empirisme. (…) Hume aanvaardt dus tevens Leibniz’ identificatie van het contingente als wat zo maar ook anders kan zijn met wat kan niet-zijn; hetgeen hier betekent dat de feitelijke stand van zaken en het bestaan van iets met hun zo of anders-kunnen zijn worden verward. (…) Het ontgaat Hume blijkbaar dat toch ook voor het feitelijke moet gelden dat zijn tegendeel onmogelijk is (..) en levert hij het feitelijke over aan scepsis en belief!” (Hollak en Platvoer, p. 168-169).

Hume en Leibniz miskennen zo het feitelijke van het feit. Dat vergeten wordt dat er in het ware oordeel naar een werkelijkheid buiten de taal wordt verwezen is een gevolg van deze miskenning. Maar zonder die verwijzing naar een werkelijke stand van zaken is er geen verschil meer tussen zinnen die een feitelijke waarheid uitdrukken en zinnen die dat niet doen.

Zoals we in de tekst van ChatGPT hierboven kunnen lezen wordt het aan de lezer over getalten te bepalen of wat er wordt gezegd overeenkomt met de feiten. ChatGPT kan als machine niet zelf verantwoordelijk zijn voor wat de teksten die ze produceert voor de lezer betekenen. De zinvolheid van de tekst ontleent de tekst niet aan het feit dat ze voor ons gepresenteerd wordt. Alsof het louter uiten van een tekst al voldoende zou zijn voor de waarachtigheid ervan.

Het loskoppelen van het waarheidskarakter van de talige uitdrukking (de propositie) in het feitelijke oordeel zit in de wortels en de haarvaten van de west-europese mathematiserende denkwijze die tot de succesvolle informatietechnologie heeft geleid. Het abstraheren van de ‘waarheidswaarde’ van het oordeel als iets dat van buiten aan de propositie kan worden toegekend behoort tot deze mathematische denkhouding.

De ‘feiten’ die vereenzelvigd worden met de wijze waarop de werkelijkheid door ons wordt uitgedrukt zijn zoals Hollak het uitdrukt ‘overgeleverd aan scepsis en belief’.

We staan sceptisch tegenover de door de intelligente machines geproduceerde teksten, zoals we sceptisch staan tegenover de ‘feiten’ die via de media tot ons komen. Door hun feitelijkheid tussen haakjes te zetten vatten we ze als slechts hypothetische waarheden op. Aan de talige uitdrukking zelf kunnen we immers niet afzien of deze waarheid bevat. Bovendien kunnen we altijd wel een reden vinden waarom iemand de feiten presenteert zoals hij dat doet. Kennelijk vinden we het belangrijk wie er ‘achter de woorden zit’ en wat deze door middel van de woorden probeert te verwoorden. We zoeken naar de oorspronkelijke zin van de woorden.

De meeste ‘feiten’ die we kennen, kennen we niet op grond van onze eigen zintuiglijke ervaring van de werkelijkheid. Deze ‘feiten’ missen daarmee de noodzakelijkheid die we aan de eigen directe feitelijke ervaring ontlenen. We moeten er dan op vertrouwen dat de ander die zijn ervaring met ons in taal deelt zich aan de feiten houdt. De taal structureert onze ervaring en daarmee de feiten zoals we deze verwoorden en met anderen delen. Feiten zijn in die zin intersubjectief en cultureel bepaald.

Wie aan de door Hollak bij Frege en Wittgenstein bekritiseerde identificatie van “de wijze waarop men iets begrijpt en uitdrukt” (de feitelijke talige uitdrukkingen) enerzijds met “datgene wat men daardoor begrijpt en uitdrukt” anderzijds vasthoudt en deze niet onderscheidt zal alles wat ChatGPT te berde brengt, getraind als deze is op het materiaal waarin de mens de wijze waarop deze de wereld heeft begrepen en in taal heeft uitgedrukt, voor de begrepen werkelijkheid aanzien.

We moeten alles wat ChatGPT ons voorschotelt echter als puur hypothetisch zien. De machine stelt eigenlijk: “Het zou kunnen zijn dat het zo is dat…” Of, beter nog: “Op basis van de teksten die ik gevonden heb moet ik stellen dat …” En niet meer dan dat. ChatGPT is een taalproduct, geen kennisproduct. Ze blijft gevangen in het netwerk van de taal: de uitwendige structuur van de levende taal. Alleen voor zover het waar is wat ChatGPT zegt hebben we er iets aan. Maar óf het waar is wat er gezegd wordt is geheel aan ons en niet aan de machine om te bepalen.

Verantwoordelijkheid is voorwaarde voor gebruiksvriendelijkheid. ChatGPT kan geen verantwoording afleggen voor de waarheid en feitelijkheid van wat het ‘zegt’. De verantwoordelijkheid ligt volledig aan de kant van ons, de gebruiker. Dus hoe gebruiksvriendelijk de taalproducerende en begrijpende machine zich ook aan ons voordoet, aan een noodzakelijke eigenschap, verantwoording afleggen voor wat het zegt, kan ze niet voldoen.

Sommigen zullen zeggen dat het nog een kwestie van tijd is, dat de taalmodellen nu weliswaar nog niet goed genoeg zijn waardoor de machine af en toe de plank nog mis slaat, maar dat de ontwikkeling van nieuwe modellen en meer data dit probleem zullen oplossen. Sommige AI-experts zijn van mening dat het verschijnen van de ‘sentient machine’ nog slechts een kwestie van tijd is. Deze mensen missen de essentie van het punt dat we hier maken. Het criterium voor intelligentie is niet hoe vaak er tot nog toe iets gezegd is dat in onze ogen correct is. De machine kent de wereld niet, ze beschikt slechts over de woorden, zinnen en teksten waarin we, als taalgemeenschap, onze relatie tot de werkelijkheid tot uitdrukking hebben gebracht.

Het is aan ons taalgebruikers om het waarheidskarakter en de begripswaarde van de tekst te bepalen.

Zijn LLMs wel AI ?

De AI-expert en uitvinder van de Baysiaanse netwerken Judea Pearl laat in een tweet weten dat de Large Language Models (LLMs) waar ChatGPT gebruik van maakt niet tot de AI gerekend zouden moeten worden.

Language is a distorted mirror of reality, as proven by LLM’s hallucinations, even more distorted than data are. LLMs are not AI. AI is the attempt to rectify those distortions.

Pearl noemt LLMs ‘distorted’, omdat er geen model achter zit. Hij bedoelt daarmee vermoed ik dat ChatGPT niet gebruik maakt van een kennismodel waarin kennis over een bepaald domein is opgeslagen, zoals dat bijvoorbeeld in een causaal (Bayesiaans) netwerk gebeurt (zie Pearl The Book of Why). Vanwege dit gebrek is er ook geen sprake van redeneringen. Natuurlijk zijn de taalmodellen wel modellen, een n-gram model is ook een model, maar die zijn kennelijk te oppervlakkig om AI genoemd te worden. Een grammatica is al minder oppervlakkig dan een n-gram model waarin alleen statistische kennis is opgeslagen over de kans dat het woord x op een gegeven rijtje van n-1 woorden volgt. Een grammatica geeft immers een taalkundige structuur aan de rijtjes woorden in een zin. Een causaal model bevat aannames over causale relaties tussen gebeurtenissen. Causale relaties zijn gebaseerd op inzichten die verder gaan dan het constateren van correlaties tussen gebeurtenissen.

Verschillende vormen van taalgebruik

Zoals we hierboven al zagen kunnen we met de term ‘taalgebruik’ verschillende dingen bedoelen. Ik wil in het vervolg wijzen op andere vormen van functioneel taalgebruik in media en techniek. Ook daarin zien we vormen van uitwendig taalgebruik, vergelijkbaar met het uitwendige taalgebruik van ChatGPT en andere taalgenererende systemen.

De oorsprong van de taal ligt in de directe communicatie van mensen die in elkaars onmiddellijke aanwezigheid zijn: het face-to-face gesprek. Alle andere vormen van taal en taalgebruik zijn daarvan afgeleid en blijven deze oorsprong veronderstellen.

Bij het luisteren naar de radio is er geen onmiddellijke aanwezigheid van gesprekspartners. Wanneer ik als luisteraar de radio hoor zeggen “Fijn dat u luistert.” voel ik me aangesprken. Hoe weet de radio dat ik luister? Datis een vreemde vraag. Ik weet dat de radio(presentatrice) niet weet dat ik luister. En toch zegt ze dit. Wat de spreker wel weet (omdat het logisch is; dit is geen empirische kennis) is dat degene die de uitgesproken tekst verstaat voldoet aan de voorwaarde dat deze luistert. Met ‘u’ verwijst de spreker (meestal) naar de abstracte luisteraar, niet naar een concreet individu. De ander is voor de spreker een virtueel beeld. Het gaat hier dus om een ander taalgebruik, in een specifieke daarbij passende communicatieve situatie, de uitzending via een medium.

De tekst die ChatGPT produceert ‘werkt’ voorzover deze door de gebruiker als zinvolle bijdrage aan de interaktie wordt beleefd.

Het iconische “U bevindt zich hier”

De ‘gebruiker’ die langs de weg op het informatiebord met plattegrond leest “U bevindt zich hier” vraagt zich niet af hoe het toch kan zijn dat het klopt wat er geschreven staat en hoe het bord dat kan weten. De gebruiker is gewend aan dit taalgebruik. Opdat dit informatieve taalgebruik werkt moet aan een aantal voorwaarden voldaan zijn. Welke zijn die voorwaarden?

De tekst “U bevindt zich hier” die we als een mededeling opvatten is een antwoord op de vraag: “waar ben ik?” die in de gedachte van de ontwerper de abstracte lezer/gebruiker verondersteld wordt te stellen. Deze vraag is als het ware impliciet in de situatie ingebouwd. De tekst is voorzien van een pijl die naar een plek op de kaart wijst. Het deictische ‘hier’ verwijst naar een plek in de virtuele wereld van de plattegrond, die een afbeelding is van de echte wereld, de wereld waarin de gebruiker zich lichamelijk bevindt. In het ‘hier’ speelt de lichamelijkheid, de fysieke aanwezigheid van de gebruiker, een wezenlijke rol.

De gebruiker moet gewend zijn aan de mogelijkheden die de techniek biedt waarvan hij gebruik maakt. De plattegrond kan ook op een mobiel scherm (bijvoorbeeld in de auto) geprojecteerd zijn. Het informatiesysteem kent dan de positie van de gebruiker via bijvoorbeeld een GPS sensor die de locatie van het mobiele apparaat detecteert. Wanneer u onderstaand plaatje ziet zou u waarschijnlijk verbaasd zijn wanneer daarin exact de locatie aangewezen stond waarop u zich bevindt terwijl u deze tekst leest.

De kennis waarvan het informatiebord gebruikt maakt betreft de situatie waarin de lezer van de tekst zich bevindt. Het betreft kennis van wat deze wil weten (waar hij zich bevindt) en wat gebruikelijk is om in de gegeven (interaktieve) situatie te zeggen.

Taaltechnologie zoals ChatGPT berust op hetzelfde principe waarop de werking van het informatiebord met de opmerking “U bevindt zich hier.” of de werking van de geldautomaat die zegt “Toets uw pincode in.” berust. De lezer of gebruiker zal het gedrag (de uitgesproken of geschreven tekst) ‘intelligent’ vinden voorzover deze volgens hem past in de situatie (de interaktie) waarin hij zich op dat moment bevindt. Opdat het werkt moet het informatiebord met de plattegrond op de plek in de echte wereld staan die door de pijl wordt aangewezen. Verder is de aanname dat de lezer van de tekst tijdens het lezen ervan zich op die plek bevindt. Het is echter aan de gebruiker dit te controleren. Wanneer het informatiebord in de opslag van de gemeente staat is er van de noodzakelijke correspondentie tussen de plek op de kaart en de plek in de werkelijkheid geen sprake. Dan werkt de opmerking niet zoals deze door de makers bedoeld is.

Er zit nog een andere kant aan dit gebruik. Met de tekst “U bevindt zich hier” wordt de lezer door het informatiebord gewezen op de wijze waarop diens positie in de virtuele wereld wordt gerepresenteerd: “deze plek op de kaart is waar u zich nu bevindt”.

Aanwijzen is een vorm van meten. Met “U bevindt zich hier” wordt de mens door de techniek als het ware op zijn plaats gezet. Het heeft dezelfde functionele waarde als de ‘uitdrukking jij bent zwart’ in het schaakspel of ‘ik ben de olifant’ bij een spelletje ganzenbord.

Behalve een antwoord op een vraag is het in die zin ook een dictaat. Zo is het met iedere gebruiksaanwijzing van een apparaat: deze legt vast welke de spelregels zijn waaraan de gebruiker zich moet houden opdat het werkt.

Hier is sprake van zuiver functioneel taalgebruik.

Zoals we hierboven al zagen: “Het verwoordingskarakter van de taal is geheel verdwenen, ten koste van de functionaliteit, haar gebruik voor een effect in een ‘Sprachspiel’, een levensvorm.” 

De vraag is dan ook niet relevant wie de tekst uitspreekt of wat degene die de tekst uitspreekt ermee uitdrukt. Het gaat zuiver en alleen om de werking van de tekst in de gegeven situatie. Die werking is afhankelijk van de correspondentie tussen de virtuele wereld van de kaart en de taal enerzijds (‘hier’) en de werkelijke wereld waarin de gebruiker/lezer zich bevindt anderzijds.

Het uitbuiten van de eenzinnige correspondentie tussen een virtuele, geconstrueerde werkelijkheid en de echte werkelijkheid is de kern van de informatietechnologie. In de programmeerbare machine is het de correspondentie tussen de fysische toestanden van de machine (de hardware) en de mathematische betekenissen die de fysische processen (toestandsveranderingen) voor ons hebben (de software), als reken- of denkprocessen. De denknoodzakelijke gevolgen van de condities corresponderen met de natuurnoodzakelijke gevolgen ervan.

De overeenstemming zelf valt buiten het mathematiserende denken. Dat het model referereert naar de werkelijkheid dat is een kwestie van geloven. De werking van de techniek is in die zin gebaseerd op het geloof in de correctheid van het onderliggende model. Dit geloof is de keerzijde van de mathematische modellering.

De suggestie is dat ChatGPT met u, die achter het beeldscherm en het toetsenbord zit, een interaktie heeft. Dat is niet zo. De suggestie is dat ChatGPT weet wat het zegt. Dat is niet zo. De suggestie is dat de tekst iets over een werkelijkheid buiten de taal zegt. Dat is niet zo. Er is slechts tekst. De tekst verwijst naar een door de tekst zelf gecreëerde virtuele wereld, waarvan de suggestie is dat deze de echte wereld is. Dat het soms waar is wat de tekst, in de ‘ogen’ van de lezer, beweert, doet daar niets aan af. Het informatiebord weet niet waar deze zich bevindt en heeft dus geen kennis van de voorwaarden waaronder hetgeen het beweert ook daadwerkelijk klopt. Net als ChatGPT kan het informatiebord niet ter verantwoording worden geroepen over de kwestie of het wel op de juiste plek staat en of de plek waar het ‘hier’ naar verwijst op de kaart wel overeenkomt met de plek in de echte wereld waarin de lezer zich bevindt. Die verantwoordelijkheid berust bij de organisatie die deze informatietechnologie ter beschikking stelt aan gebruikers.

Wat te denken van een overheidsinstelling die op willekeurige plaatsen informatieborden plaatst en het aan het toeval overlaat of het ‘hier’ in de tekst “U bevindt zich hier.” overeenkomt met de plek waar de gebruiker het bord aantreft? Wat OpenAI doet is vergelijkbaar. Ze stelt voor het grote publiek een informatiesysteem beschikbaar waarvan het van het toeval afhangt of wat het beweert overeenkomst met de feiten.

Dat ChatGPT geen kennis bevat blijkt ook uit de volgende conversatie. Ik gaf hem de volgende puzzel.

I know a man. He is a son of my father, but he is not my brother. Do you know who is that man?

Waarop ChatGPT antwoordde:

If the man is the son of your father but not your brother, then he must be your son or your nephew. However, it’s not possible for him to be your son if he is a man, so he must be your nephew. In other words, he is the son of one of your siblings.

Dat ChatGPT geen verstand heeft van familierelaties mag ons niet verbazen, maar hoe zit met de kennis van de wiskunde?

Je zou denken dat ChatGPT, zijnde een computerprogramma, foutloos kan rekenen. Dat is immers wat computers doen: rekenen. Taalgenererende systemen zijn echter ook niet foutloos als het om zuiver logische of wiskundige feiten gaat. Wanneer je het taalmodel maar genoeg voedt met de bewering (tekst) “2 + 2 = 5” dan zal het deze tekst na verloop van tijd reproduceren, wanneer je vraagt hoeveel 2 + 2 is. Zo worden zelfs de wiskundige ‘eeuwige’ waarheden door de taaltechnologie overgeleverd aan het geloof in de statistieken van het feitelijk taalgebruik. Het onderscheid tussen feiten en wiskundige waarheden bestaat voor de machine niet. Ook voor Descartes waren de wiskundige waarheden feiten. Uit testexperimenten met GPT-4, een verbeterde versie van het taalmodel waarop ChatGPT is gebaseerd, blijkt dat deze 42,5 % van de wiskunde opgaven correct beantwoordt. (zie Bubeck et al. 2023) Wie zou tevreden zijn met een rekenmachine waarvan de producent garandeert dat deze in 42.5 % van de gevallen het juiste antwoord geeft?

Hieruit blijkt dat er geen direct verband is tussen de grammaticale vorm van zinnen zoals deze in woordvolgordes tot uitdrukking komt en hun logische inhoud, het begrip van de werkelijkheid zoals wij dat in taal tot uitdrukking brengen. De logische inhoud laat zich niet uit de grammaticale vorm afleiden. Voor de machine is het verband tussen de grammaticale woordvolgordes in een taal en de logische inhoud zuiver toevallig, een kwestie van statistiek.

Het gevaar van AI zoals ChatGPT zit hem erin dat mensen in het gebruik ervan misleid worden te denken dat er een subject aanwezig is dat weet wat de tekst beweert en dat wat de tekst beweert ook waar is. Mensen die zeggen dat het gevaar van AI zit in het feit dat deze slimmer zullen zijn (of in de toekomst zullen worden) dan mensen dragen bij aan dit beeld. Het vergelijken van de prestaties van de mens met die van de machine plaatst ten onrechte mens en machine tegenover elkaar als zelfstandige entiteiten. Zonder de relatie tot de mens voor wie de machine is wat het is is de machine echter slechts een proces dat volgens de regels van de natuur verloopt. Omgekeerd kan de mens zonder hulpmiddelen die de (kennis van de) natuur hem biedt ook niet veel. De tegenoverstelling tussen mens en machine vinden we ook in de reflectie op de taal, waarin het woord als uitwendig fysische ‘betekenisloos teken’ tegenover de betekenis wordt gedacht. Het woord is echter slechts woord in relatie tot de mens voor wie het woord betekenis heeft in en door het daadwerkelijke gebruik.

De verklaring voor de verrassing dat een machine puur op basis van uitwendige relaties, statistische correlaties, iets zinnigs kan produceren moet dan ook gezocht worden in de natuurlijke neiging van ons verstand dingen die slechts in werkelijkheid in relaties voorkomen uit elkaar te denken en tegenover elkaar te plaatsen. De correlaties zijn kwantitatieve uitdrukking van de kwaliteit van de taal.

Bronnen

Evert W. Beth (1969). Moderne Logica. Uitgeverij Van Gorkum & Comp. N.V. Assen, 1969. Hoofdstuk V: ‘Over de zogenaamde denkmachine.’

Sébastien Bubeck et al. (2023). Sparks of artificial general intelligence: early experiments with GPT-4. https://arxiv.org/abs/2303.12712, v3 March 2023.

Uit het abstract: “We demonstrate that, beyond its mastery of language, GPT-4 can solve novel and difficult tasks that span mathematics, coding, vision, medicine, law, psychology and more, without needing any special prompting. Moreover, in all of these tasks, GPT-4’s performance is strikingly close to human-level performance, and often vastly surpasses prior models such as ChatGPT. Given the breadth and depth of GPT-4’s capabilities, we believe that it could reasonably be viewed as an early (yet still incomplete) version of an artificial general intelligence (AGI) system.”

Over de testexperimenten in het oplossen van wiskundige problemen zegt het rapport:

“GPT-4’s accuracy shows a modest improvement over other models, but a manual inspection of GPT-4’s answers on MATH reveals that GPT-4’s errors are largely due to arithmetic and calculation mistakes: the model exhibits large deficiency when managing large numbers or complicated expressions.” (p.36)

OpenAI (2023). GPT-4 Technical Report.

“We report the development of GPT-4, a large-scale, multimodal model which can accept image and text inputs and produce text outputs. While less capable than humans in many real-world scenarios, GPT-4 exhibits human-level performance on various professional and academic benchmarks, including passing a simulated bar exam with a score around the top 10% of test takers.”

OpenAI waarschuwt voor al te hoge verwachtingen.

“Despite its capabilities, GPT-4 has similar limitations as earlier GPT models. Most importantly, it still is not fully reliable (it “hallucinates” facts and makes reasoning errors). Great care should be taken when using language model outputs, particularly in high-stakes contexts, with the exact protocol (such as human review, grounding with additional context, or avoiding high-stakes uses altogether) matching the needs of specific applications.”

De uitdrukking “it still is not fully reliable” (OpenAI 2023 GPT-4 Report) suggereert dat het een kwestie van tijd is voor dat dergelijke systemen volledig betrouwbaar zijn. Wie is tevreden met een rekenmachine die aangeboden wordt met de disclaimer ‘not fully reliable’ ?

Maar wie is verantwoordelijk voor eventuele schade door gebruik van deze modellen?

OpenAI neemt geen verantwoordelijkheid voor het gebruik van haar modellen in risicovolle, serieuze contexten.

In particular, our usage policies prohibit the use of our models and products in the contexts of high risk government decision making (e.g, law enforcement, criminal justice, migration and asylum), or for offering legal or health advice.

Dijksterhuis, E.J. (1977). De mechanisering van het wereldbeeld. Derde druk. Meulenhoff, Amsterdam, 1977. De eerste druk verscheen in 1950, de tweede in 1975.

Fleischhacker, Louk (1987). Het wiskundig teken. In: Reflexiviteit en Metafysica. Bijdragen aan het symposium bij het afscheid van prof. J.H.A. Hollak. (Redactie: Louk Fleischhacker). Filosofische Reeks Centrale Interfaculteit Universiteit van Amsterdam, nr. 20. 1987, pp. 20-37.

Fleischhacker, Louk E. (1995). Beyond structure; the power and limitations of mathematical thought in common sense, science and philosophy. Peter Lang Europäischer Verlag der Wissenschaften, Frankfurt am Main, 1995.

Gunkel, David J. (2017). The Other Question: Can and Should Robots have Rights? In: Ethics and Information Technology, 2017.

Edmund Husserl (1936/1977). Die Krisis der Europäischen Wissenschaften und die transzendentale Phänomenologie. Philosophische Bibliothek Band 292 Felix Meiner Verlag, Berlin, 1977.

Jan Hollak en Wim Platvoet (red.) 2010. Denken als bestaan: Het werk van Jan Hollak. Uitgeverij DAMON, Budel, 2010.

In deze bundel het transcript van de opname van het Afscheidscollege over de hypothetische samenleving, door Jan Hollak gehouden in Nijmegen op 21 februari 1986. Ook de inaugurele rede Van Causa sui tot Automatie is hierin ogenomen.

Vincent Icke (2021). Licht – tussen waarheid en wetenschap. Prometeus, Nieuw Licht, Amsterdam, 2021.

Loosman, Iris (2023). Maakt AI de arts overbodig? In: KNMG, 19 Januari 2023. https://www.knmg.nl/actualiteit-opinie/columns/column/maakt-ai-de-arts-overbodig

Nijholt, Anton en Van den Ende, Jan (1994). Geschiedenis van de Rekenkunst: van kerfstok tot computer. Uitgegeven door: Academic Service, Schoonhoven, 1994.

Wittgenstein, Ludwig (1973). Tractatus logico-philosophicus. Logisch-philosophische Abhandlung. Ed. Suhrkamp, Uitgave 1973. Oorspronkelijke Duitstalige uitgave 1921.

WRR (2021). Opgave ai. De nieuwe systeemtechnologie. Rapport 105 van de Wetenschappelijke Raad voor het Regeringsbeleid. Op 11 november 2021 door de WRR aangeboden aan de regering. Het rapport kan gratis worden gedownload van wrr.nl.