ChatGPT bezien vanuit Jan Hollaks kritiek op de taal bij Wittgenstein

“Ein Satz muss mit alten Ausdrücken einen neuen Sinn mitteilen.” (Ludwig Wittgenstein, Tractatus 4.03)

“Kennis kun je opschrijven en doorgeven, maar begrip zit in je hoofd.” (Vincent Icke, Licht, 2021)

Er zijn in de recente geschiedenis talloze voorbeelden te vinden van onderzoekers op het gebied van de kunstmatige intelligentie die beweerden dat de mens op bepaalde terreinen binnen een x aantal jaren door de computer voorbij gestreefd zou worden.

In 1957 beweerde AI-pionier Herbert Simon zelfs:

“Het is niet mijn bedoeling om U te verrassen of te schokken (…) maar de simpelste manier waarop ik het kan samenvatten is door te zeggen dat er nu machines in de wereld bestaan die denken, die leren en die iets kunnen voortbrengen.” (citaat uit: Nijholt en van den Ende, 1994)

In de jaren zestig ontwikkelde Joseph Weizenbaum het pratende computerprogramma ELIZA om aan te tonen hoe je met eenvoudige middelen binnen een geschikt gekozen domein een geloofwaardige computer kan maken. Mensen die met zijn programma een gesprek aan gingen vertoonden gedrag alsof ze met een echte psychotherapeut een gesprek voerden. Weizenbaum was verbaasd toen hij hoorde dat sommige mensen de machine zelfs bewustzijn toekenden.

Er is wat dat betreft niets nieuws onder zon nu AI-onderzoekers ons willen doen geloven dat met de nieuwste taalgenererende systemen (Generative Pre-trained Transformer models, GPTs) het punt bereikt is dat de computer de mens in intelligentie overtreft. Moeten we deze machines niet in juridische en morele zin als persoon beschouwen, is een onder ethici, juristen en filosofen heftig bediscussieerde vraag. Zie bijvoorbeeld het werk van David Gunkel over robot rights.

ChatGPT, het programma van OpenAI dat de wereld versteld doet staan over de mogelijkheden van taaltechnologie toont weer eens aan hoe diep de kloof is tussen de uitwendigheid van de taal en de geest van de taal en hoe desalniettemin het presenteren van de buitenkant van (taal)gedrag als vanzelf (‘automatisch’) de suggestie wekt van een binnenkant, een geest, ziel of bewustzijn. Deze vermeende geest zou de tekst zeggingskracht geven.

AI-systemen worden ‘autonoom’ (zelfstandig) genoemd. Er wordt wel gezegd dat AI functies van de mens gaat overnemen. Het beeld wordt geschetst van een AI systeem dat de huisarts gaat voorschrijven hoe hij een patiënt moet ‘behandelen’. De huisarts zou gereduceerd worden tot een ‘menselijke interface’ tussen patiënt en AI. Maakt AI de arts overbodig? Dat is de prangende vraag die Iris Loosman, ethisch beleidsadviseur van het KNMG stelt (Loosman 2023). Sommige mensen zijn bang dat AI zelfbewust wordt en zich tegen de mens kan keren, zoals het ‘monster van Frankenstein’. De Wetenschappelijke Raad voor het Regeringsbeleid schreef recent een rapport Opgave AI (WRR 2021) waarin het pleit voor een realistischer beeld van AI. Te groot optimisme en overtrokken angsten acht de WRR ‘niet functioneel’. De WRR vindt Demystificatie van AI belangrijk om te zorgen dat de juiste vragen in de maatschappelijke discussie worden gesteld. Het gaat erom de verschillende beeldende verhalen die er van AI rondzingen tot begrip te komen.

Aan die demystificatie van AI wil ik graag een bijdrage leveren. Maar hoe doe je dat? Als de mystificatie van AI en het geloof in AI religieuze vormen heeft aangenomen, zoals sommige mensen stellen, dan zou het demystificeren van AI vergelijkbaar zijn met de poging mensen hun geloof in hun God af te nemen. We weten dat dat geen eenvoudige opgave is. Je kunt je zelfs afvragen of het wel wenselijk en toelaatbaar is dat een instituut als het WRR de regering hiertoe adviseert. Reklamespotjes schetsen typisch een onrealistisch positief beeld van het aangeboden produkt; of dat nu een auto, een staatslot of een vakantiereis is naar zonnige oorden.

Inzicht in de werking van AI en taaltechnologie is van belang om de suggestie die er van de intelligente machine uitgaat dat deze bewustzijn heeft bloot te leggen en het beeld van een geest in de machine te ontkrachten. Dit inzicht kan bijdragen aan het op verantwoorde wijze omgaan met deze technologie. Het beeld dat we van AI hebben moet ‘functioneel’ zijn, zoals de WRR het verwoord. Maar waarom moet alles functioneel zijn? Is dan de vraag die zich aandient. Is het niet een typisch kenmerk van onze door wetenschap en technologie beheerste samenleving dat alles functioneel moet zijn?

Op deze vragen ga ik hier in. Ik doe dat vanuit mijn achtergrond als informaticus en mijn interesse in de filosofie van het wiskundig denken en de technologie.

Ik heb in het verleden wel statistische taalmodellen gemaakt die getrained op de werken van Shakespeare nieuwe teksten konden genereren die voor de leek verrassend veel op diens teksten leken. Maar ik ben geen expert op het gebied van de nieuwste technieken op het gebied van ‘deep learning’, zoals die bij het maken van de state of the art Large Language Models (LLMs) zoals GPT-4 gebruikt worden. Wanneer hier van de ‘werking van taaltechnologie’ sprake is dan gaat het ook niet zozeer om de technische kant maar vooral over de werking van de taal bezien vanuit het perspectief van het technische gebruik ervan. Kennis van de werking van techniek is iets anders dan technische kennis. Net zo goed als retorica, de wetenschap hoe te overtuigen door middel van de taal iets ander is als kennis van de taal. We kunnen de discussie over de maatschappelijke betekenis van deze technologie dan ook niet overlaten aan de technologen en AI-onderzoekers.

Natuurlijk, de gedachte dat in de woorden en in de intelligente machines een ‘geest’ aanwezig is is niet geheel onzinnig. In zekere zin is de menselijke geest aanwezig in taal en techniek, zoals hij in zekere zin aanwezig is in alles wat hij gemaakt heeft; in de organisatie van de arbeid, in kunst en cultuur. Het gaat erom te begrijpen in welke zin we hiervan kunnen spreken. Die kwestie gaat de taal, die veelzinnig is, te buiten. Ze verwijst naar een dimensie van de taal die de taal opgevat als geheel van teksten principieel overstijgt. Het gaat om het begrip dat we in taal uitdrukken. Die veelzinigheid is een belangrijke eigenschap van onze taal. Wanneer we een instrument of machine ‘slim’ of ‘intelligent’ noemen dan bedoelen we iets anders dan wanneer we een mens ‘slim’ of ‘intelligent’ noemen. De vraag is wat de relatie is tussen die twee betekenissen en gebruikswijzen.

Intelligentie herkennen we in de uitoefening van het vermogen te redeneren. Wat machines ‘van nature’ kunnen is ‘rekenen’: werken volgens herhaald toepasbare regels, natuurwetten. Om de werking van de machine te kunnen zien als redeneren moeten we het redeneren als een vorm van rekenen opvatten.

In zijn essay Over de zogenaamde ‘denkmachine’ wijst de bekende logicus en filosoof Evert W. Beth (1909-1964) er op dat Aristoteles reeds bekend was met de analogie tussen rekenen en redeneren. In De sophisticis elenchis (On Sophistical Refutations) wijst Aristoteles op de verschillende denk- en redeneerfouten die mensen maken door de veelzinnigheid van de taal en de ambiguiteit van de woorden.

Beth geeft de Nederlandse vertaling van een passage uit het eerste deel, sectie 1 van Aristotles’ De sophisticis elenchis waarin Aristoteles wijst op de analogie tussen het redeneren met woorden en het werken met rekensteentjes (calculi).

Want omdat het niet mogelijk is, bij het redeneren de dingen zelf mee te brengen, maar wij in plaats van de dingen de woorden als symbolen gebruiken, menen wij dat awat voor de symbolen geldt ook voor de dingen opgaat, zoals dat bij de rekenaars met de rekensteentjes het geval is. Maar die vergelijking gaat niet op, want de woorden en de uitspraken zijn begrensd, de dingen echter zijn oneindig in aantal. Het is derhalve onvermijdelijk dat één en dezelfde uitdrukking en één en hetzelfde woord meer dan één ding aanduidt. Zoals derhalve de in het hanteren van de rekensteentjes onbedrevenen door de daarin bedrevenen worden beetgenomen, zo misrekenen ook zij zich die niet op de hoogte zijn van de draagwijdte van uitdrukkingen en van de woorden, zowel wanneer ze zelf redeneren als wanneer ze anderen aanhoren.

De Stagiriet waarschuwt voor de sofist die bedreven in de taal de luisteraar misleidt door misbruik te maken van de verschillende betekenissen van de woorden en uitdrukkingen.

Ook de uitdrukking ‘taalgebruik’ is dubbelzinnig en kan derhalve tot verwarring leiden. Wanneer we het hebben over het ‘taalgebruik’ door ChatGPT dan bedoelen we daarmee iets heel anders dan wanneer we het hebben over het ‘taalgebruik’ door mensen.

Een taalgenererend programma zoals ChatGPT kan gebruikmakend van statistische taalmodellen met vele miljoenen (175 miljard) parameters teksten produceren die vaak niet van door mensen geproduceerde teksten te onderscheiden zijn. Die taalmodellen zijn gevuld (‘getrained’) door enorme hoeveelheden teksten die op het internet beschikbaar zijn te verwerken. Statistische analyses van deze teksten leveren kennis op over de kans welke woorden, in een bepaalde contekst, het meest waarschijnlijk volgen op een gegeven rijtje woorden. Ze maakt dus gebruik van de regelmatigheden en patronen die in de taal voorkomen. Deze kennis (eventueel aangevuld met wat kennis over lexicale en grammaticale regelmatigheden in de taal) wordt in de vorm van algoritmes uitgedrukt die gebruikt worden om nieuwe teksten te produceren op basis van een door de gebruiker ingevoerde tekst die een vraag of opdracht bevat. Taaltechnologie berust dus op het wiskundig, vaak statistisch, modelleren van (het gebruik van) de taal, zoals dat is opgeslagen in electronische tekstbestanden (taalcorpora).

Hieronder zie je een reactie van ChatGPT wanneer je “deze wijst op het feit dat sprekers normaliter geacht worden verantwoordelijk te zijn voor wat ze zeggen” .

Mijn opmerking was (dat wil zeggen: de tekst die ik het systeem aanbood was:)

“The point I want to make is that use of language in a mechanical way as you do is not responsible. Do you mean that to make it ethical it is enough to say that you are not using language the way humans do ?”

Een stukje tekst geproduceerd door ChatGPT

Wat ChatGPT hier produceert is een tekst waarin beweerd wordt dat ook deze machine ‘slechts’ een stuk gereedschap is. En dat de verantwoordelijkheid voor het gebruik ervan geheel bij de gebruiker ligt. Maar is een machine die ‘van zichzelf’ beweert dat deze slechts een stuk gereedschap is al niet meer dan dat? De suggestie is in elk geval dat de machine die dit beweert ook weet wat hij daarmee zegt.

Waarom is het zo verrassend voor veel mensen dat deze taalmachines zulk schijnbaar intelligent taalgedrag vertonen terwijl ze alleen maar werken met statistische correlaties op het voorkomen van woorden in taalcorpora?

Merk op dat bij het gebruik van ‘natuurlijke taal-interfaces’, zoals bij geldautomaten die in de taal van de gebruiker hem instrueert wat te doen (“Toets uw pincode in”) het niet de bedoeling is om mensen de indruk te geven dat er iemand is die weet en bedoeld wat er gezegd wordt. Het is niet de opzet van de makers de gebruiker te misleiden te denken dat de machine ook aktief bedoeld wat het zegt. Het gaat erom dat het werkt. Het motief is de gebruiksvriendelijkheid van de interface te verbeteren, door deze in zijn eigen taal te zeggen wat deze moet of kan doen.

De verkopers van de technologie van de ‘kunstmatige intelligentie’ hebben er belang bij het beeld van de machine die de mens in kennis naar de kroon steekt hoog te houden. De opvolger van ChatGPT GPT-4 zou het ideaal van algemene kunstmatige intelligentie (AGI, artificial general intelligence), een machine die vele taken die voorheen alleen door mensen konden worden uitgevoerd, weer een stap dichter bij brengen (Bubeck et al, 2023). De machine zou meer dan een stuk gereedschap, meer dan een technisch middel, zijn. Het verhaal dat ze verkopen is dat hun sprekende machines niet alleen teksten produceren, maar ook steeds beter weten wat waar is, en oplossingen kunnen bedenken voor lastige problemen.

Het gevaar van AI zit hem niet in het feit dat de machines werkelijk de macht van de mens overnemen. Het gevaar is dat mensen dit verhaal geloven. Het gevaar zit hem er in dat mensen de machine capaciteiten toedichten die niet verantwoord kunnen worden op grond van inzicht in deze technologie. En dan zou het wel eens kunnen zijn dat AI de macht over heeft genomen. Nu al hoor je met enige regelmaat mensen bepaald gedrag verantwoorden met de woorden: “De computer zegt het.” We accepteren AI te pas en te onpas als autoriteit. Dat is ook de stellingname van het WRR in hun rapport Opgave AI. Inzicht in de werking van deze technologie kan een belangrijke bijdrag leveren in het ontkrachten van dit verhaal, en kan tot een realistischer en meer verantwoord gebruik van de zogenaamde intelligente sprekende machines leiden. We horen wel zeggen dat de makers van deze intelligente systemen zelf niet eens weten hoe ze werken. Dat komt omdat deze systemen zulke complexe netwerken bevatten dat het niet meer traceerbaar is hoe het systeem er toe komt een bepaalde tekst te produceren.

Het is natuurlijk heel gebruikelijk in de wereld van de commercie om ten behoeve van de verkoop ervan produkten eigenschappen toe te kennen die bij de consument aanslaan. Het produkt wordt vaak geidealiseerd, gemystificeerd. De verkoper belooft gouden bergen. De mens is gemakzuchtig en goedgelovig als het hem zo uitkomt. Het automatisme waarmee de presentatie van een tekst het beeld van een subject dat deze tekst uitspreekt oproept berust op een aangeleerde gewoonte. We hebben de neiging onze eigen inbreng in het verschijnsel niet te zien: dat wij het zelf zijn voor wie de woorden die we lezen de betekenis hebben die wij er in zien.

ChatGPT heeft opnieuw de discussie aangewakkerd of de machine werkelijk met kennis van zaken spreekt of alleen maar teksten produceert waarmee het de illusie wekt te weten waar het over spreekt. Anderzijds is het de vraag of mensen niet iets doen dat vergelijkbaar is met wat deze machines doen. Kunnen we uit de performances van de machine conclusies trekken over diens competences?

Rodney Brooks, expert op het gebied van de robotica bij MIT, schrijft in zijn blog post What will transformers transform?, een commentaar op de GPT hype :

“This inference of AI arriving momentarily is a clear example of how people mistake performance for competence.

We [humans] are able to generalize from observing performance at one task to a guess at competence over a much bigger set of tasks. We understand intuitively how to generalize from the performance level of the person to their competence in related areas.

Maar wat voor mensen geldt gaat niet op voor AI systemen. Het blijkt vaak meer toeval te zijn dan wijsheid wanneer zo’n systeem iets intelligents te berde brengt.

Er lijken twee verschillende wereldbeelden en mensbeelden te zijn die bepalen welk standpunt men inneemt ten aanzien van de mogelijkheden en de grenzen van de taaltechnologie en de kunstmatige intelligentie in het algemeen. Kunnen we onze verstandelijke vermogens zelf in de machine stoppen of alleen de uitingen ervan? Daarin speelt een belangrijke rol hoe we over taal denken en welke rol de taal in ons denken en leven speelt. Hoe verhoudt onze kennis van de werkelijkheid zich tot de taal waarin we die kennis uitdrukken?

Het zijn inmiddels klassieke vragen uit de wetenschaps- en taalfilosofie.

Taal gaat ergens over. De woorden verwijzen naar een wereld buiten de taal. We kunnen het niet over taal hebben en over wat dan ook zonder taal te gebruiken. De mens zit echter niet gevangen in de taal. “If language is not considered to be about something, it cannot even be about itself, and we are no longer able to say that language is not about something.” (Fleischhacker 1995, p59-60). Het is dus logisch onmogelijk te ontkennen dat de taal over iets gaat dat buiten het spreken zelf ligt. Deze ontkenning is immers onmogelijk en zinledig zonder ervan uit te gaan dat ze ergens over gaat.

In taal krijgen onze gedachten een concrete vorm. De machine gebruikt taal op een andere manier dan de mens. Wij kunnen taal niet gebruiken zonder in dat gebruik ook iets te bedoelen, zonder dat de taal in dit gebruik ergens over gaat. De machine gebruikt de taal in een heel andere zin. De machine manipuleert de woorden en zinnen van de taal. Het gebruikt de taal dus niet als taal, maar als een verzameling van objecten. Dat het produkt in de vorm van een tekst, een rij woorden, ergens over gaat, dat ligt volledig aan de kant van de gebruiker. Deze herkent in de woorden een betekenis die we er gewoonlijk als taalgebruiker mee bedoelen. Voor de machine hebben de woorden echter geen betekenis; de machine gebruikt de taal niet als taal, maar als mathematische objecten die door middel van fysische toestanden gepresenteerd worden. Zo is ook ‘taalgebruik’, net als ‘taal’, een veelzinnige term.

De functionele samenleving

Het college dat de filosoof Jan Hollak ter gelegenheid van zijn afscheid als hoogleraar in de geschiedenis van de moderne wijsbegeerte gaf ging over de ‘hypothetische samenleving’. (Voor het transcript van de opnames ervan zie Hollak en Platvoet 2010). Hierin probeert Hollak in de beperkte tijd die hem daarvoor in zo’n college gegeven is zijn commentaar op de ‘moderne’ wetenschap- en taalfilosofie nog eens samen te vatten.

Der Satz ist ein Bild der Wirklichkeit: Denn ich kenne die von ihm dargestellte Sachlage, wenn ich den Satz verstehe. Und der Satz versehe ich, ohne dass mir sein Sinn erklärt wurde.” (Ludwig Wittgenstein Tractatus, 4.021)

Hollak komt in zijn college te spreken over een onderwerp waaraan hij in de loop der jaren in een aantal collegecycli al veel aandacht besteedde: de taal (de ‘uitdrukking van het denken als denken‘). Het gaat in het bijzonder over het woordgebruik en de betekenis van woorden in de gewone omgangstaal volgens de moderne taalfilosofen (logisch positivisten en structuralisten).

In zijn Tractatus stelt Wittgenstein de formele identiteit vast van de logische ‘Satz’ van de ‘Idealsprache’ met de logische structuur of de ‘Logik der Tatsachen’. Feiten zijn overeenstemming tussen de gedachte met wat gedacht wordt.

Wat gebeur hier?, vraagt Hollak. “Hier wordt niet voldoende onderscheiden tussen datgene wat ik zou willen noemen verwoording van iets – en wel in die zin dat iets wat ik ken en vat door middel van de taal verwoord wordt, en als zodanig naar voren gebracht en uitgedrukt wordt.”

In zijn Philosophische Untersuchungen wordt de taal door Wittgenstein als iets functioneels gezien. De betekenis van de taal wordt bepaald door het gebruik. Het verwoordingskarakter van de taal is geheel verdwenen, ten koste van de functionaliteit, haar gebruik voor een effect in een ‘Sprachspiel’, een levensvorm. 

Het taalgebruik in de politieke arena is zo’n ‘Sprachspiel’. Elk technisch taalgebruik is gebonden aan een bepaald spel, een levensvorm, het omgaan met instrumenten.

Bij Wittgenstein zien we dat de betekenis van de woorden geidentificeerd wordt met het gebruik ervan. Dit principe gebruikt Wittgenstein volgens Hollak in zijn strijd tegen de metafysica. Buiten het alledaagse gebruik betekenen de woorden niets, ze zijn zinloos.

Over deze identificatie zegt hij:

“Deze identificatie lijkt mij geheel en al onhoudbaar, en die komt hieruit voort, dat men voortdurend, reeds vanaf Frege, de wijze waarop men iets begrijpt en uitdrukt en datgene wat men daardoor begrijpt en uitdrukt geïdentificeerd heeft.” (p. 432)

De wiskundige en logicus Gottlob Frege (1848/1925) is één van de belangrijkste filosofen van de tweede helft van de negentiende eeuw. Vanwege de veelzinnigheid van de taal beschouwde hij deze als ‘mangelhaft’, wanneer het er om gaat het denken voor fouten te behoeden. Ook in de wiskunde wordt volgens Frege vaak gezondigd tegen de eis van helderheid. Aan deze onvolkomenheid van de taal wilde hij eind maken door een nieuwe tekentaal waarin tekens een eenzinnige betekenis hebben. Met zijn Begriffsschrift heeft Frege de basis gelegd voor de predikatenlogica en de mathematische logica, de wiskundige theorie van het wiskundig redeneren.

Hollak vervolgt:

“En niet alleen komt deze identificatie hier voor in dit geval. Het komt voortdurend in de verdere moderne filosofische stromingen voor. Want wat Wittgenstein hier doet, dat is toch eigenlijk niets anders dan te zeggen, dat je de taal puur functioneel moet bekijken. Nu, dat puur functioneel bekijken van taal en dat puur functioneel bekijken van allerlei toedrachten in de werkelijkheid, dat is typerend voor wat ik noem een hypothetische samenleving.”

Hollak ziet een verband tussen dit ‘puur functioneel bekijken van de taal’ enerzijds en wat we het hypothetiseren van de feiten zouden kunnen noemen in de moderne mathematiserende wetenschap. Een feit wordt gezien als een functie van de omstandigheden.

Een kenmerk van de hypothetische samenleving van Hollak is dat de wetenschappen van begin tot eind puur hypothetisch van karakter zijn. Een onderwerp waar ook Husserl in zijn Krisis der Europäischen Wissenschaften uitvoerig over komt te spreken wanneer hij het over de mathematisering van de natuurwetenschappen heeft. Door dat hypothetische karakter heeft de wetenschappelijke benadering een eigen zelfstandig karakter gekregen en heeft de positieve, mathematische, wetenschap zich onderscheiden van de filosofie.

De Hollandse wiskundige en natuurkundige Christiaan Huygens was volgens de historicus Cohen één van de eersten die expliciet wees op de betekenis van de hypothese in zijn methode van werken. Een aanname die voortdurend getoetst moet worden aan de zaak zelf.

Maar nu voor het eerst wordt [door Christiaan Huygens] een hele natuurfilosofie gehanteerd als hypothese, waarvan de bruikbaarheid niet bij voorbaat wordt aangenomen maar keer op keer opnieuw moet worden uitgeprobeerd. Wij weten allang niet meer beter; maar voor 1652-1656 was zelfs de mogelijkheid van zoiets niet onder ogen gezien.” (F. Cohen, De herschepping van de wereld. Citaat uit: Vincent Icke, Licht, p. 14)

Een cultuur waarin dit hypothetisch karakter van de wetenschap niet voldoende beseft wordt verwart wetenschap en filosofie en miskent zo de eigen waarde van zowel de wetenschap als de filosofie. Het is de moderne technologie, in de vorm van de kunstmatige intelligentie en automatie, die een nieuwe eigentijdse metafysica volgens Hollak noodzakelijk en ook mogelijk maakt. Deze technologie is de uitwendige objectivering van het mathematiserende moderne denken, het denken zoals dat door Descartes, Leibniz en ook Hume werd geidealiseerd. De sociale robot is objectivering van het zelfbeeld van de moderne mens als autonoom rationeel subject in de vorm van de uitwendigheid. ChatGPT is de uitwendige realisatie van de wijze waarop de moderne mens zijn verhouding tot de werkelijkheid in taal tot uitdrukking brengt.

Volgens Hollak wordt alles voor dit denken functioneel opgevat. “Het aanvaarden van een feitelijke toedracht is er niet meer bij.” (p. 436). Alles wat we kunnen observeren is maar zo onder bepaalde condities en hypothesen, die we zo weer kunnen veranderen. Feiten zijn functie-waarden van bepaalde aannames. Ook het tegendeel van een feitelijke toedracht wordt als mogelijkheid gezien. Terwijl als het een feit is dat vandaag de zon is opgegaan het toch niet meer zo kan zijn dat deze niet is opgegaan.

Ook al onze ‘leefverhoudingen’ worden volgens Hollak door de moderne wetenschap tot puur hypothetische, logisch mogelijke ietsen gemaakt. Het is niet zo dat onze wetenschap ons leven verheldert. Dezelfde aanklacht tegen de wetenschap zien we bij Husserl.

De moderne wetenschap is niet uit op in wezensinzichten. Factische en wezensinzichten sluiten nog altijd hun tegendeel uit.

“Ook de factische, niet waar, als Ceasar de Rubicon overtrekt, dan kan hij haar niet tegelijkertijd niet overtrekken. Hier wordt voortdurend gesteld: dit factische is mijn hypothese, het had net zo goed anders kunnen zijn. Het contingente bij een factsichetoerdrscht wordtr hier gemaakt tot een puur formeel logische mogelijkheid: het kan evengoed zo en anders zijn. Het aanvaarden van een feitelijke toedracht is er niet meer bij.” (Hollak, Afscheidsrede, p. 436)

Zowel bij Leibniz als bij Hume wordt de feitelijkheid, het onherroepelijke van het feit, niet werkelijk onderkend. Een inzicht waarvan Hollak al in zijn beroemde inaugurele rede Van Causa sui tot Automatie (1966) getuigt.

Wat heeft dit met de taaltechnologie en ChatGPT te maken? Hollak bekijkt de ontwikkeling van de techniek vanuit het gezichtspunt van tot uitwendige objectivering komende reflectievormen. Mijn inziens maakt de taaltechnologie, die de reflectie op taal en mathematiek vooronderstelt, steeds duidelijker, voor wie het wil zien, wat de woorden van Hollak betekenen; wat deze identificatie van “de wijze waarop men iets begrijpt” en in taal en gebaar uitdrukt en “datgene wat men daardoor begrijpt en uitdrukt” betekent.

We kunnen hier van een mathematiserende metafysica, een mathematisch wereldbeeld spreken. Het identificeren van tekens met datgene wat met tekens in hun gebruik wordt aangeduid als hun betekenis is immers kenmerkend voor de wiskunde (zie Fleischhacker 1987). Met de getallen worden meteen de tekens die ernaar verwijzen gemaakt. De wiskunde is het enige gebied waarin de tekens op eenzinnige wijze een object identificeren en waarin de termen op eenzinnig wijze de structuur waarin de objecten voorkomen representeren. In de wiskundige reflexie op deze toedracht, in de meta-mathematica, wordt deze relatie gemathematiseerd door middel van een functie die de syntax van de taal op de semantiek afbeeldt. In de wiskunde hebben we slechts toegang tot de wiskundige objecten, de structuren en hun onderdelen, via de taal waarmee we ze als het ware vastleggen. Rekenen is formule-manipulatie volgens eenduidige algemene regels. Voor het wiskundig denken is een bewering feitelijk waar, wanneer ze afleidbaar is in een als consistent beschouwde theorie. De ware beweringen hebben geen betrekking op een fysiek waarneembare werkelijkheid maar op een puur gedachte werkelijkheid, een wiskundige structuur, een model, waarmee we de waarneembare werkelijkheid bedekken.

Van die eenzinnige relatie tussen tekens en hun betekenissen (zoals tussen de cijfers, de getalnotaties, enerzijds en de getallen anderzijds) maken we gebruik in de rekenmachines. Daarin werken de wiskundige tekens door middel van de fysische toestanden van de machine die we zo hebben ingericht dat we ze als voorstelling van de getallen kunnen opvatten. Toestand is het uitwendig correlaat van een denkinhoud, een mogelijkheid in een veld van bedachte mogelijkheden. Werkelijkheid (die Welt) is de door ons begrepen, gestructureerde, werkelijkheid (van feiten, Tatsachen).

Op dezelfde wijze wordt in het mathematische wereldbeeld ook de relatie tussen de ‘natuurlijke taal’ en de feitelijke werkelijkheid gedacht. Ze zijn direct op elkaar afbeeldbaar en buiten die relatie is er volgens Wittgenstein dan ook niets waarover zinvol gesproken kan worden.

ChatGPT zit gevangen in de wereld van de gematerialiseerde taal, van de wijzen waarop we in onze taalbestanden ons begrip van de werkelijkheid hebben uitgedrukt. Die feitelijke uitdrukkingswijzen worden gehouden voor wat werkelijkheid is. Als we de door ChatGPT op basis van statistische regels gegenereerde teksten lezen herkennen we daarin (voor zover het werkt) de ons bekende begrippen en begripssamenhangen. Dat herkennen is voorwaarde voor de betekenis van de woorden. Maar, en dat blijkt telkens weer in het gebruik van deze taaltechnologie: deze is niet bij machte het wezenlijke onderscheid te maken (kennen) tussen uitspraken die echte feiten uitdrukken en die dat niet doen. Waarom niet? Omdat de feitelijkheid van het feit, de noodzakelijkheid als feit buiten de talige uitdrukking valt. Dit is precies het commentaar dat Hollak heeft op Leibniz en Hume.

En dat geldt volgens Hollak niet alleen voor de mathematiserende kennisopvatting van de rationalisten Descartes en Leibniz, maar ook voor de empirist Hume.

“Want Hume’s fundamentele tweedelig van al datgene wat object van menselijk kennen en redeneren kan worden in ‘abstract relations of ideas‘ en ‘matters of fact‘ is zo’n omzetting: nu van Leibniz’ vérités de raison en vérités de fait, in hun tegengestelde kader: het empirisme. (…) Hume aanvaardt dus tevens Leibniz’ identificatie van het contingente als wat zo maar ook anders kan zijn met wat kan niet-zijn; hetgeen hier betekent dat de feitelijke stand van zaken en het bestaan van iets met hun zo of anders-kunnen zijn worden verward. (…) Het ontgaat Hume blijkbaar dat toch ook voor het feitelijke moet gelden dat zijn tegendeel onmogelijk is (..) en levert hij het feitelijke over aan scepsis en belief!” (Hollak en Platvoer, p. 168-169).

Hume en Leibniz miskennen zo het feitelijke van het feit. Dat vergeten wordt dat er in het ware oordeel naar een werkelijkheid buiten de taal wordt verwezen is een gevolg van deze miskenning. Maar zonder die verwijzing naar een werkelijke stand van zaken is er geen verschil meer tussen zinnen die een feitelijke waarheid uitdrukken en zinnen die dat niet doen.

Zoals we in de tekst van ChatGPT hierboven kunnen lezen wordt het aan de lezer over getalten te bepalen of wat er wordt gezegd overeenkomt met de feiten. ChatGPT kan als machine niet zelf verantwoordelijk zijn voor wat de teksten die ze produceert voor de lezer betekenen. De zinvolheid van de tekst ontleent de tekst niet aan het feit dat ze voor ons gepresenteerd wordt. Alsof het louter uiten van een tekst al voldoende zou zijn voor de waarachtigheid ervan.

Het loskoppelen van het waarheidskarakter van de talige uitdrukking (de propositie) in het feitelijke oordeel zit in de wortels en de haarvaten van de west-europese mathematiserende denkwijze die tot de succesvolle informatietechnologie heeft geleid. Het abstraheren van de ‘waarheidswaarde’ van het oordeel als iets dat van buiten aan de propositie kan worden toegekend behoort tot deze mathematische denkhouding.

De ‘feiten’ die vereenzelvigd worden met de wijze waarop de werkelijkheid door ons wordt uitgedrukt zijn zoals Hollak het uitdrukt ‘overgeleverd aan scepsis en belief’.

We staan sceptisch tegenover de door de intelligente machines geproduceerde teksten, zoals we sceptisch staan tegenover de ‘feiten’ die via de media tot ons komen. Door hun feitelijkheid tussen haakjes te zetten vatten we ze als slechts hypothetische waarheden op. Aan de talige uitdrukking zelf kunnen we immers niet afzien of deze waarheid bevat. Bovendien kunnen we altijd wel een reden vinden waarom iemand de feiten presenteert zoals hij dat doet. Kennelijk vinden we het belangrijk wie er ‘achter de woorden zit’ en wat deze door middel van de woorden probeert te verwoorden. We zoeken naar de oorspronkelijke zin van de woorden.

De meeste ‘feiten’ die we kennen, kennen we niet op grond van onze eigen zintuiglijke ervaring van de werkelijkheid. Deze ‘feiten’ missen daarmee de noodzakelijkheid die we aan de eigen directe feitelijke ervaring ontlenen. We moeten er dan op vertrouwen dat de ander die zijn ervaring met ons in taal deelt zich aan de feiten houdt. De taal structureert onze ervaring en daarmee de feiten zoals we deze verwoorden en met anderen delen. Feiten zijn in die zin intersubjectief en cultureel bepaald.

Wie aan de door Hollak bij Frege en Wittgenstein bekritiseerde identificatie van “de wijze waarop men iets begrijpt en uitdrukt” (de feitelijke talige uitdrukkingen) enerzijds met “datgene wat men daardoor begrijpt en uitdrukt” anderzijds vasthoudt en deze niet onderscheidt zal alles wat ChatGPT te berde brengt, getraind als deze is op het materiaal waarin de mens de wijze waarop deze de wereld heeft begrepen en in taal heeft uitgedrukt, voor de begrepen werkelijkheid aanzien.

We moeten alles wat ChatGPT ons voorschotelt echter als puur hypothetisch zien. De machine stelt eigenlijk: “Het zou kunnen zijn dat het zo is dat…” Of, beter nog: “Op basis van de teksten die ik gevonden heb moet ik stellen dat …” En niet meer dan dat. ChatGPT is een taalproduct, geen kennisproduct. Ze blijft gevangen in het netwerk van de taal: de uitwendige structuur van de levende taal. Alleen voor zover het waar is wat ChatGPT zegt hebben we er iets aan. Maar óf het waar is wat er gezegd wordt is geheel aan ons en niet aan de machine om te bepalen.

Verantwoordelijkheid is voorwaarde voor gebruiksvriendelijkheid. ChatGPT kan geen verantwoording afleggen voor de waarheid en feitelijkheid van wat het ‘zegt’. De verantwoordelijkheid ligt volledig aan de kant van ons, de gebruiker. Dus hoe gebruiksvriendelijk de taalproducerende en begrijpende machine zich ook aan ons voordoet, aan een noodzakelijke eigenschap, verantwoording afleggen voor wat het zegt, kan ze niet voldoen.

Sommigen zullen zeggen dat het nog een kwestie van tijd is, dat de taalmodellen nu weliswaar nog niet goed genoeg zijn waardoor de machine af en toe de plank nog mis slaat, maar dat de ontwikkeling van nieuwe modellen en meer data dit probleem zullen oplossen. Sommige AI-experts zijn van mening dat het verschijnen van de ‘sentient machine’ nog slechts een kwestie van tijd is. Deze mensen missen de essentie van het punt dat we hier maken. Het criterium voor intelligentie is niet hoe vaak er tot nog toe iets gezegd is dat in onze ogen correct is. De machine kent de wereld niet, ze beschikt slechts over de woorden, zinnen en teksten waarin we, als taalgemeenschap, onze relatie tot de werkelijkheid tot uitdrukking hebben gebracht.

Het is aan ons taalgebruikers om het waarheidskarakter en de begripswaarde van de tekst te bepalen.

Zijn LLMs wel AI ?

De AI-expert en uitvinder van de Baysiaanse netwerken Judea Pearl laat in een tweet weten dat de Large Language Models (LLMs) waar ChatGPT gebruik van maakt niet tot de AI gerekend zouden moeten worden.

Language is a distorted mirror of reality, as proven by LLM’s hallucinations, even more distorted than data are. LLMs are not AI. AI is the attempt to rectify those distortions.

Pearl noemt LLMs ‘distorted’, omdat er geen model achter zit. Hij bedoelt daarmee vermoed ik dat ChatGPT niet gebruik maakt van een kennismodel waarin kennis over een bepaald domein is opgeslagen, zoals dat bijvoorbeeld in een causaal (Bayesiaans) netwerk gebeurt (zie Pearl The Book of Why). Vanwege dit gebrek is er ook geen sprake van redeneringen. Natuurlijk zijn de taalmodellen wel modellen, een n-gram model is ook een model, maar die zijn kennelijk te oppervlakkig om AI genoemd te worden. Een grammatica is al minder oppervlakkig dan een n-gram model waarin alleen statistische kennis is opgeslagen over de kans dat het woord x op een gegeven rijtje van n-1 woorden volgt. Een grammatica geeft immers een taalkundige structuur aan de rijtjes woorden in een zin. Een causaal model bevat aannames over causale relaties tussen gebeurtenissen. Causale relaties zijn gebaseerd op inzichten die verder gaan dan het constateren van correlaties tussen gebeurtenissen.

Verschillende vormen van taalgebruik

Zoals we hierboven al zagen kunnen we met de term ‘taalgebruik’ verschillende dingen bedoelen. Ik wil in het vervolg wijzen op andere vormen van functioneel taalgebruik in media en techniek. Ook daarin zien we vormen van uitwendig taalgebruik, vergelijkbaar met het uitwendige taalgebruik van ChatGPT en andere taalgenererende systemen.

De oorsprong van de taal ligt in de directe communicatie van mensen die in elkaars onmiddellijke aanwezigheid zijn: het face-to-face gesprek. Alle andere vormen van taal en taalgebruik zijn daarvan afgeleid en blijven deze oorsprong veronderstellen.

Bij het luisteren naar de radio is er geen onmiddellijke aanwezigheid van gesprekspartners. Wanneer ik als luisteraar de radio hoor zeggen “Fijn dat u luistert.” voel ik me aangesprken. Hoe weet de radio dat ik luister? Datis een vreemde vraag. Ik weet dat de radio(presentatrice) niet weet dat ik luister. En toch zegt ze dit. Wat de spreker wel weet (omdat het logisch is; dit is geen empirische kennis) is dat degene die de uitgesproken tekst verstaat voldoet aan de voorwaarde dat deze luistert. Met ‘u’ verwijst de spreker (meestal) naar de abstracte luisteraar, niet naar een concreet individu. De ander is voor de spreker een virtueel beeld. Het gaat hier dus om een ander taalgebruik, in een specifieke daarbij passende communicatieve situatie, de uitzending via een medium.

De tekst die ChatGPT produceert ‘werkt’ voorzover deze door de gebruiker als zinvolle bijdrage aan de interaktie wordt beleefd.

Het iconische “U bevindt zich hier”

De ‘gebruiker’ die langs de weg op het informatiebord met plattegrond leest “U bevindt zich hier” vraagt zich niet af hoe het toch kan zijn dat het klopt wat er geschreven staat en hoe het bord dat kan weten. De gebruiker is gewend aan dit taalgebruik. Opdat dit informatieve taalgebruik werkt moet aan een aantal voorwaarden voldaan zijn. Welke zijn die voorwaarden?

De tekst “U bevindt zich hier” die we als een mededeling opvatten is een antwoord op de vraag: “waar ben ik?” die in de gedachte van de ontwerper de abstracte lezer/gebruiker verondersteld wordt te stellen. Deze vraag is als het ware impliciet in de situatie ingebouwd. De tekst is voorzien van een pijl die naar een plek op de kaart wijst. Het deictische ‘hier’ verwijst naar een plek in de virtuele wereld van de plattegrond, die een afbeelding is van de echte wereld, de wereld waarin de gebruiker zich lichamelijk bevindt. In het ‘hier’ speelt de lichamelijkheid, de fysieke aanwezigheid van de gebruiker, een wezenlijke rol.

De gebruiker moet gewend zijn aan de mogelijkheden die de techniek biedt waarvan hij gebruik maakt. De plattegrond kan ook op een mobiel scherm (bijvoorbeeld in de auto) geprojecteerd zijn. Het informatiesysteem kent dan de positie van de gebruiker via bijvoorbeeld een GPS sensor die de locatie van het mobiele apparaat detecteert. Wanneer u onderstaand plaatje ziet zou u waarschijnlijk verbaasd zijn wanneer daarin exact de locatie aangewezen stond waarop u zich bevindt terwijl u deze tekst leest.

De kennis waarvan het informatiebord gebruikt maakt betreft de situatie waarin de lezer van de tekst zich bevindt. Het betreft kennis van wat deze wil weten (waar hij zich bevindt) en wat gebruikelijk is om in de gegeven (interaktieve) situatie te zeggen.

Taaltechnologie zoals ChatGPT berust op hetzelfde principe waarop de werking van het informatiebord met de opmerking “U bevindt zich hier.” of de werking van de geldautomaat die zegt “Toets uw pincode in.” berust. De lezer of gebruiker zal het gedrag (de uitgesproken of geschreven tekst) ‘intelligent’ vinden voorzover deze volgens hem past in de situatie (de interaktie) waarin hij zich op dat moment bevindt. Opdat het werkt moet het informatiebord met de plattegrond op de plek in de echte wereld staan die door de pijl wordt aangewezen. Verder is de aanname dat de lezer van de tekst tijdens het lezen ervan zich op die plek bevindt. Het is echter aan de gebruiker dit te controleren. Wanneer het informatiebord in de opslag van de gemeente staat is er van de noodzakelijke correspondentie tussen de plek op de kaart en de plek in de werkelijkheid geen sprake. Dan werkt de opmerking niet zoals deze door de makers bedoeld is.

Er zit nog een andere kant aan dit gebruik. Met de tekst “U bevindt zich hier” wordt de lezer door het informatiebord gewezen op de wijze waarop diens positie in de virtuele wereld wordt gerepresenteerd: “deze plek op de kaart is waar u zich nu bevindt”.

Aanwijzen is een vorm van meten. Met “U bevindt zich hier” wordt de mens door de techniek als het ware op zijn plaats gezet. Het heeft dezelfde functionele waarde als de ‘uitdrukking jij bent zwart’ in het schaakspel of ‘ik ben de olifant’ bij een spelletje ganzenbord.

Behalve een antwoord op een vraag is het in die zin ook een dictaat. Zo is het met iedere gebruiksaanwijzing van een apparaat: deze legt vast welke de spelregels zijn waaraan de gebruiker zich moet houden opdat het werkt.

Hier is sprake van zuiver functioneel taalgebruik.

Zoals we hierboven al zagen: “Het verwoordingskarakter van de taal is geheel verdwenen, ten koste van de functionaliteit, haar gebruik voor een effect in een ‘Sprachspiel’, een levensvorm.” 

De vraag is dan ook niet relevant wie de tekst uitspreekt of wat degene die de tekst uitspreekt ermee uitdrukt. Het gaat zuiver en alleen om de werking van de tekst in de gegeven situatie. Die werking is afhankelijk van de correspondentie tussen de virtuele wereld van de kaart en de taal enerzijds (‘hier’) en de werkelijke wereld waarin de gebruiker/lezer zich bevindt anderzijds.

Het uitbuiten van de eenzinnige correspondentie tussen een virtuele, geconstrueerde werkelijkheid en de echte werkelijkheid is de kern van de informatietechnologie. In de programmeerbare machine is het de correspondentie tussen de fysische toestanden van de machine (de hardware) en de mathematische betekenissen die de fysische processen (toestandsveranderingen) voor ons hebben (de software), als reken- of denkprocessen. De denknoodzakelijke gevolgen van de condities corresponderen met de natuurnoodzakelijke gevolgen ervan.

De overeenstemming zelf valt buiten het mathematiserende denken. Dat het model referereert naar de werkelijkheid dat is een kwestie van geloven. De werking van de techniek is in die zin gebaseerd op het geloof in de correctheid van het onderliggende model. Dit geloof is de keerzijde van de mathematische modellering.

De suggestie is dat ChatGPT met u, die achter het beeldscherm en het toetsenbord zit, een interaktie heeft. Dat is niet zo. De suggestie is dat ChatGPT weet wat het zegt. Dat is niet zo. De suggestie is dat de tekst iets over een werkelijkheid buiten de taal zegt. Dat is niet zo. Er is slechts tekst. De tekst verwijst naar een door de tekst zelf gecreëerde virtuele wereld, waarvan de suggestie is dat deze de echte wereld is. Dat het soms waar is wat de tekst, in de ‘ogen’ van de lezer, beweert, doet daar niets aan af. Het informatiebord weet niet waar deze zich bevindt en heeft dus geen kennis van de voorwaarden waaronder hetgeen het beweert ook daadwerkelijk klopt. Net als ChatGPT kan het informatiebord niet ter verantwoording worden geroepen over de kwestie of het wel op de juiste plek staat en of de plek waar het ‘hier’ naar verwijst op de kaart wel overeenkomt met de plek in de echte wereld waarin de lezer zich bevindt. Die verantwoordelijkheid berust bij de organisatie die deze informatietechnologie ter beschikking stelt aan gebruikers.

Wat te denken van een overheidsinstelling die op willekeurige plaatsen informatieborden plaatst en het aan het toeval overlaat of het ‘hier’ in de tekst “U bevindt zich hier.” overeenkomt met de plek waar de gebruiker het bord aantreft? Wat OpenAI doet is vergelijkbaar. Ze stelt voor het grote publiek een informatiesysteem beschikbaar waarvan het van het toeval afhangt of wat het beweert overeenkomst met de feiten.

Dat ChatGPT geen kennis bevat blijkt ook uit de volgende conversatie. Ik gaf hem de volgende puzzel.

I know a man. He is a son of my father, but he is not my brother. Do you know who is that man?

Waarop ChatGPT antwoordde:

If the man is the son of your father but not your brother, then he must be your son or your nephew. However, it’s not possible for him to be your son if he is a man, so he must be your nephew. In other words, he is the son of one of your siblings.

Dat ChatGPT geen verstand heeft van familierelaties mag ons niet verbazen, maar hoe zit met de kennis van de wiskunde?

Je zou denken dat ChatGPT, zijnde een computerprogramma, foutloos kan rekenen. Dat is immers wat computers doen: rekenen. Taalgenererende systemen zijn echter ook niet foutloos als het om zuiver logische of wiskundige feiten gaat. Wanneer je het taalmodel maar genoeg voedt met de bewering (tekst) “2 + 2 = 5” dan zal het deze tekst na verloop van tijd reproduceren, wanneer je vraagt hoeveel 2 + 2 is. Zo worden zelfs de wiskundige ‘eeuwige’ waarheden door de taaltechnologie overgeleverd aan het geloof in de statistieken van het feitelijk taalgebruik. Het onderscheid tussen feiten en wiskundige waarheden bestaat voor de machine niet. Ook voor Descartes waren de wiskundige waarheden feiten. Uit testexperimenten met GPT-4, een verbeterde versie van het taalmodel waarop ChatGPT is gebaseerd, blijkt dat deze 42,5 % van de wiskunde opgaven correct beantwoordt. (zie Bubeck et al. 2023) Wie zou tevreden zijn met een rekenmachine waarvan de producent garandeert dat deze in 42.5 % van de gevallen het juiste antwoord geeft?

Hieruit blijkt dat er geen direct verband is tussen de grammaticale vorm van zinnen zoals deze in woordvolgordes tot uitdrukking komt en hun logische inhoud, het begrip van de werkelijkheid zoals wij dat in taal tot uitdrukking brengen. De logische inhoud laat zich niet uit de grammaticale vorm afleiden. Voor de machine is het verband tussen de grammaticale woordvolgordes in een taal en de logische inhoud zuiver toevallig, een kwestie van statistiek.

Het gevaar van AI zoals ChatGPT zit hem erin dat mensen in het gebruik ervan misleid worden te denken dat er een subject aanwezig is dat weet wat de tekst beweert en dat wat de tekst beweert ook waar is. Mensen die zeggen dat het gevaar van AI zit in het feit dat deze slimmer zullen zijn (of in de toekomst zullen worden) dan mensen dragen bij aan dit beeld. Het vergelijken van de prestaties van de mens met die van de machine plaatst ten onrechte mens en machine tegenover elkaar als zelfstandige entiteiten. Zonder de relatie tot de mens voor wie de machine is wat het is is de machine echter slechts een proces dat volgens de regels van de natuur verloopt. Omgekeerd kan de mens zonder hulpmiddelen die de (kennis van de) natuur hem biedt ook niet veel. De tegenoverstelling tussen mens en machine vinden we ook in de reflectie op de taal, waarin het woord als uitwendig fysische ‘betekenisloos teken’ tegenover de betekenis wordt gedacht. Het woord is echter slechts woord in relatie tot de mens voor wie het woord betekenis heeft in en door het daadwerkelijke gebruik.

De verklaring voor de verrassing dat een machine puur op basis van uitwendige relaties, statistische correlaties, iets zinnigs kan produceren moet dan ook gezocht worden in de natuurlijke neiging van ons verstand dingen die slechts in werkelijkheid in relaties voorkomen uit elkaar te denken en tegenover elkaar te plaatsen. De correlaties zijn kwantitatieve uitdrukking van de kwaliteit van de taal.

Bronnen

Evert W. Beth (1969). Moderne Logica. Uitgeverij Van Gorkum & Comp. N.V. Assen, 1969. Hoofdstuk V: ‘Over de zogenaamde denkmachine.’

Sébastien Bubeck et al. (2023). Sparks of artificial general intelligence: early experiments with GPT-4. https://arxiv.org/abs/2303.12712, v3 March 2023.

Uit het abstract: “We demonstrate that, beyond its mastery of language, GPT-4 can solve novel and difficult tasks that span mathematics, coding, vision, medicine, law, psychology and more, without needing any special prompting. Moreover, in all of these tasks, GPT-4’s performance is strikingly close to human-level performance, and often vastly surpasses prior models such as ChatGPT. Given the breadth and depth of GPT-4’s capabilities, we believe that it could reasonably be viewed as an early (yet still incomplete) version of an artificial general intelligence (AGI) system.”

Over de testexperimenten in het oplossen van wiskundige problemen zegt het rapport:

“GPT-4’s accuracy shows a modest improvement over other models, but a manual inspection of GPT-4’s answers on MATH reveals that GPT-4’s errors are largely due to arithmetic and calculation mistakes: the model exhibits large deficiency when managing large numbers or complicated expressions.” (p.36)

OpenAI (2023). GPT-4 Technical Report.

“We report the development of GPT-4, a large-scale, multimodal model which can accept image and text inputs and produce text outputs. While less capable than humans in many real-world scenarios, GPT-4 exhibits human-level performance on various professional and academic benchmarks, including passing a simulated bar exam with a score around the top 10% of test takers.”

OpenAI waarschuwt voor al te hoge verwachtingen.

“Despite its capabilities, GPT-4 has similar limitations as earlier GPT models. Most importantly, it still is not fully reliable (it “hallucinates” facts and makes reasoning errors). Great care should be taken when using language model outputs, particularly in high-stakes contexts, with the exact protocol (such as human review, grounding with additional context, or avoiding high-stakes uses altogether) matching the needs of specific applications.”

De uitdrukking “it still is not fully reliable” (OpenAI 2023 GPT-4 Report) suggereert dat het een kwestie van tijd is voor dat dergelijke systemen volledig betrouwbaar zijn. Wie is tevreden met een rekenmachine die aangeboden wordt met de disclaimer ‘not fully reliable’ ?

Maar wie is verantwoordelijk voor eventuele schade door gebruik van deze modellen?

OpenAI neemt geen verantwoordelijkheid voor het gebruik van haar modellen in risicovolle, serieuze contexten.

In particular, our usage policies prohibit the use of our models and products in the contexts of high risk government decision making (e.g, law enforcement, criminal justice, migration and asylum), or for offering legal or health advice.

Dijksterhuis, E.J. (1977). De mechanisering van het wereldbeeld. Derde druk. Meulenhoff, Amsterdam, 1977. De eerste druk verscheen in 1950, de tweede in 1975.

Fleischhacker, Louk (1987). Het wiskundig teken. In: Reflexiviteit en Metafysica. Bijdragen aan het symposium bij het afscheid van prof. J.H.A. Hollak. (Redactie: Louk Fleischhacker). Filosofische Reeks Centrale Interfaculteit Universiteit van Amsterdam, nr. 20. 1987, pp. 20-37.

Fleischhacker, Louk E. (1995). Beyond structure; the power and limitations of mathematical thought in common sense, science and philosophy. Peter Lang Europäischer Verlag der Wissenschaften, Frankfurt am Main, 1995.

Gunkel, David J. (2017). The Other Question: Can and Should Robots have Rights? In: Ethics and Information Technology, 2017.

Edmund Husserl (1936/1977). Die Krisis der Europäischen Wissenschaften und die transzendentale Phänomenologie. Philosophische Bibliothek Band 292 Felix Meiner Verlag, Berlin, 1977.

Jan Hollak en Wim Platvoet (red.) 2010. Denken als bestaan: Het werk van Jan Hollak. Uitgeverij DAMON, Budel, 2010.

In deze bundel het transcript van de opname van het Afscheidscollege over de hypothetische samenleving, door Jan Hollak gehouden in Nijmegen op 21 februari 1986. Ook de inaugurele rede Van Causa sui tot Automatie is hierin ogenomen.

Vincent Icke (2021). Licht – tussen waarheid en wetenschap. Prometeus, Nieuw Licht, Amsterdam, 2021.

Loosman, Iris (2023). Maakt AI de arts overbodig? In: KNMG, 19 Januari 2023. https://www.knmg.nl/actualiteit-opinie/columns/column/maakt-ai-de-arts-overbodig

Nijholt, Anton en Van den Ende, Jan (1994). Geschiedenis van de Rekenkunst: van kerfstok tot computer. Uitgegeven door: Academic Service, Schoonhoven, 1994.

Wittgenstein, Ludwig (1973). Tractatus logico-philosophicus. Logisch-philosophische Abhandlung. Ed. Suhrkamp, Uitgave 1973. Oorspronkelijke Duitstalige uitgave 1921.

WRR (2021). Opgave ai. De nieuwe systeemtechnologie. Rapport 105 van de Wetenschappelijke Raad voor het Regeringsbeleid. Op 11 november 2021 door de WRR aangeboden aan de regering. Het rapport kan gratis worden gedownload van wrr.nl.