Marion Koopmans en de Bar-Hillel-Carnap Paradox van Luciano Floridi

“The more we know, the less we know” (Marion Koopmans, Twitter, 8-4-2021)

Wat zegt ze daar? “The more we know, the less we know”? Wat is dat voor logica! Dat moet wel een vrouw zijn. Het is in een tweet van onze nationale huiskamer-viroloog en corona virus vraagbaak Marion Koopmans. Een wijze vrouw.

(Mijn zoons wijzen mij er regelmatig op: “Grijze haren zijn geen teken van wijsheid, maar van ouderdom.” Marion Koopmans is het levende bewijs dat grijsheid de wijsheid ook niet uitsluit.)

Wat volgt is een voetnoot bij de uitspraak dat door nieuwe informatie onze kennis soms vermindert.

Mijn docent Dirk Kleima wees ons er al op tijdens het college Informatietheorie, waarin hij o.a. Shannon and Weavers klassieker “The Mathematical Theory of Communication” en het Maxwell duiveltje behandelde, om aan te tonen dat informatie uitwisselen energie kost. Hoe dan?

De kerngedachte is dit: nieuwe informatie vermeerdert de kennis omtrent een bepaald gebied van de werkelijkheid. Daardoor verandert ons inzicht in wat mogelijk is en wat niet. Maar ook wat meer en wat minder waarschijnlijk is. Onze voorspellingen omtrent de werkelijkheid veranderen.

De verwachtingen en mogelijkheden worden wiskundig uitgedrukt in een kans-verdeling. Wetenschappers, virologen, etc, maken zulke kans-modellen.

Zo’n kans-model heeft een entropie. Dat is een maat voor wanorde, chaos. Kennis schept orde in de chaos van de ruwe natuur. Gisteren viel bij ons een meer dan 80 jaar oude dikke wilg om. Dan heb je chaos in je tuin.

Dat kans-model, uitdrukking van onze kennis op een bepaald moment, geef ik aan met P(K) waarbij K de (impliciete) kennis van het domein is en P staat voor een probability, een kansfunctie. Bij iedere mogelijkheid die zich voordoet (denk aan uitkomsten van een test of worp met dobbelsteen) geeft de functie P(K) een waarde, zeg P(K)(x) van mogelijkheid (event) x.

Die kansverdeling heeft een entropie-waarde die je met een logaritmische functie berekent. Doet er hier niet toe hoe dat gaat, maar het is een getal dat aangeeft hoeveel bits je gemiddeld minimaal nodig hebt om het bericht dat een bepaalde mogelijkheid zich voor doet door het kanaal van Shannon te sturen. Als alles even kansrijk is, is de chaos maximaal: je weet dan weinig of niets, je kunt alles verwachten.

Je zou dus verwachten dat nieuwe kennis minder chaos en dus een lagere entropie oplevert. Immers je weet meer.

Nee, zegt Marion: “The more we know, the less we know“. Hoe meer informatie des te minder weten we. Inderdaad Dirk Kleima (“bewijstechniek is net zo belangrijk als soldeertechniek“) gaf een bewijs van zijn bewering dat informatie de entropie van je kansverdeling kan vermeerderen.

Na nieuwe informatie E (evidence) wordt de nieuwe kansverdeling P(K) (x|E), spreek uit: de kans op event x gegeven de informatie E. Die kansverdeling kan behoorlijk verschillen van de oude. Eenvoudig voorbeeld: eerst was de kans op een 6 bij het gooien met een eerlijke dobbelsteen 1/6. Maar als je informatie krijgt dat de uitkomst even is, dan is de kans op een 6 al 1/3.

In dit voorbeeld is de entropie al niet eens verandert. Maar docent Kleima gaf dus een voorbeeld waarin de chaos/entropie toenam. Binnen een bepaalde deelgroep van Nederlanders, bijvoorbeeld die met blauwe ogen, kan de verdeling van haarkleur best uniformer zijn dan in de hele bevolking van Nederland. Met als gevolg dat informatie dat iemand tot die deelgroep behoort (blauwe ogen heeft) je minder zeker maakt over de haarkleur van die persoon. De entropie is toegenomen.

Ik heb altijd vermoed: hier wringt een schoen. Dat vond Luciano Floridi ook toen hij vernam hoe Bar-Hillel en Carnap kansen aan kennis en belief-updates koppelden. Hij noemt dit fenomeen de Bar-Hillel-Carnap paradox. Deze zou voortkomen uit de Inverse Probability These: hoe kleiner de kans op een event is, des te meer informatie geeft het je wanneer deze event optreedt. En hij meende dat dit betekent dat als je een uitspraak hebt die nooit waar kan zijn (“het regent en het regent niet”), dat deze dan maximale informatie-oplevert. Deze stap is voor Floridi’s rekening. Maar ook anderen maken die.

De oorzaak van de ‘paradox’ is echter een verwarring van twee betekenissen van ‘mogelijk zijn’. Eenvoudig voorbeeld: we zeggen dat een licht-schakelaar twee mogelijke standen heeft (aan / uit) of dat een bewering twee mogelijke waarheidswaarden heeft (true/false, ook wel: 1 of 0). Dat is de ene betekenis van mogelijk zijn. De andere is deze: als een schakelaar in stand ‘aan’ staat dan is dit kennelijk de enig mogelijke stand; de andere stand is niet mogelijk. Dat is zeg maar fysische of werkelijke mogelijkheid.

Als er iets, een event, gebeurt dan wordt iets dat (kennelijk) mogelijk was ook werkelijk. Daarmee zijn alle andere mogelijke events van het wiskundige kansmodel opgeheven. Die zijn niet meer mogelijk. Dat lijkt mij klontjes.
Maar zo denkt de wiskundig aangelegde wetenschapper (en iedere ‘moderne’ wetenschapper heeft een tik van de wiskunde gehad) niet. Die denken niet aan mogelijkheden die werkelijk worden. Worden bestaat niet in de wiskunde.

De wiskundige en de wetenschapper die de wiskundige modellering voor de ideale kennisvorm houdt, berekent na event E gezien te hebben vrolijk P(K)(x|E), de nieuwe kansverdeling van x gegeven E op basis van zijn kansmodel P(K) dat hij ooit gemaakt had vanwege zijn (impliciete) kennis K van het domein.

Hoe logisch is dat? Waarom houdt de wiskundige vast aan zijn oude model? Waarom zegt de wetenschapper niet: ik moet mijn oude model P(K) aanpassen, want ik heb nu informatie I over event E. Die I(E) levert mij nieuwe kennis K: dat wordt K+(I(E) . Dit is een nieuwe kansverdeling P(K+I(E)(x).

In plaats van wat men standaard doet: P(K)(x|E).

Omdat de wetenschapper denkt: informatie is nog geen kennis. Die kennis is meer iets subjectiefs en impliciet. We moeten die nieuwe informatie eerst wegen. (Kijk maar wat de wetenschap voortdurende doet met de Lareb-gegevens van Astrid Kant en andere labs).

Voor Luciano Floridi is de Bar-Hillel-Carnap paradox – ofwel in de woorden van Marion Koopmans: het “The more we know, the less we know” reden om te zeggen; informatie is pas betekenisvolle informatie als het waar is. En daarmee zegt hij eigenlijk: wat jullie nieuwe informatie noemen is pas echte informatie als blijkt waar te zijn wat er gezegd wordt. Helaas weet ook Floridi niet te zeggen wanneer dat is, want dat is een onbereikbaar ideaal.

Alsof onze kennis groeit totdat er niets meer te weten over blijft.

De werkelijkheid zegt niet als een bepaalde event E optreedt dat E mogelijk is, de werkelijkheid toont dat E het geval is. De wiskunde kent echter alleen mogelijkheden en kan niet en het werkelijk worden van iets of de groei van kennis als zodanig modelleren. Alles wat de wiskunde voor waar houdt volgt uit de axioma’s die een keer aangenomen zijn. Feiten zijn niet inhoudelijk onderscheiden van de andere mogelijkheden uit het ‘veld van mogelijkheden’ uit het wiskundig kansmodel.

De praktijk is echter dat we voortdurend nieuwe informatie krijgen waarvan we nog maar moeten afwachten of en wat voor nieuwe kennis het oplevert. Informatie is toetsbaar en dus slechts potentieel waar. We moeten die nog verwerken. Dat gebeurt in een confrontatie met alle reeds voor waar aangenomen informatie en met informatie die we bewaarden maar waar we nog niets mee wisten te doen. De waarheid is het doel van de dialoog tussen de waarheid zoekende wetenschappers.

Naar een unificerende theorie van informatie

De scepsis dat een werkelijk begrip van informatie niet voor de mens is weggelegd, zoals onder andere door Floridi en Mingers uitgesproken, berust op de verwarring van de twee betekenissen van mogelijk die het wiskundige begrip van mogelijkheid uit de kansrekening en statistiek aankleven. Informatie is een begrip dat tot de intersubjectiviteit behoort, niet tot de wiskunde of de fysica.

We zien de verwarring van “denken in het model” met “denken over het model” voortdurend optreden wanneer mensen het hebben over intelligente machines. Alsof de mens zelf als maker van de machine (het model) in de machine zit.

Laten we hopen dat Marion’s wijze tweet: “The less we know the more we know” zo aanleiding is niet alleen de idee van “groei van kennis” maar ook de geschiedenis van de moderne wetenschap te heroverdenken.

Daar is nu de gelegenheid en de tijd voor. Nu de machines het werk doen en het virus ons thuis houdt.

Ik sluit af met een citaat uit Frank Ramsey’s Truth and Probability.

The degree of belief in p given q is not the same as the degree to which a subject would believe p, if he believed q for certain; for knowledge of q might for psychological reasons profoundly alter his whole system of beliefs.

How right he was!

Good goan!

Published by

admin

Rieks op den Akker was onderzoeker en docent kunstmatige intelligentie, wiskunde en informatica aan de Universiteit Twente. Hij is gepensioneerd.

Leave a Reply