Reichenbach’s Probleem en de Gekleurde Technologie

Zeg wat je wilt, zolang dat je niet verhindert te zien hoe de feiten liggen. (En als je dat ziet, zul je van alles niet zeggen.)

(Ludwig Wittgenstein, Filosofische Onderzoekingen 79)

Het zoveelste rapport over het onrecht dat het Algoritme in dienst van De Instanties, publiek of privaat, de burger als individu aandoet heeft onlangs het licht gezien.

Nu is het de Rekenkamer Rotterdam die in Gekleurde Technologie wijst op de ethische aspecten van De Algoritmes.

Recent verscheen Algoritmische beslisregels vanuit constitutioneel oogpunt (Goossens et al, 2012) een publicatie over de rechtstatelijke risico’s ten gevolge van het gebruik van algoritmes door de verschillende overheidsinstanties.

De focus van deze studie ligt op “de fundamentele tweedeling tussen algemene regels en de concrete toepassing via individuele beslissingen alsmede, in het licht daarvan, de wisselwerking tussen normen en feiten.”

“De bevoegdheid voor het bestuur om in individuele gevallen concrete besluiten te nemen dient steeds een grondslag te hebben in algemene regels vastgesteld door een democratisch gelegitimeerd orgaan. De besluitvorming van het bestuur in individuele gevallen vindt echter al geruime tijd steeds vaker (deels) geautomatiseerd plaats op basis van algoritmische beslisregels. Hierdoor kan de relatie vertroebelen tussen enerzijds een concreet besluit dat het resultaat is van de toepassing van een algoritmische beslisregel en anderzijds de algemene regels die oorspronkelijk ten grondslag liggen aan de bevoegdheid van het bestuur om in individuele gevallen concrete besluiten te nemen.”

Verder merken ook de schrijvers van dit artikel op dat de toenemende complexiteit haar eigen problemen met zich mee brengt. “De complexiteit en ondoorzichtigheid van algoritmische besluitvorming kunnen voorts de democratische en rechterlijke controle op de toepassing van algemene regels bemoeilijken.”

Een verkenning van het gebruik van algoritmes binnen de gemeente Rotterdam bevestigt het beeld dat uit talloze eerdere onderzoeken is ontstaan, namelijk dat het gebruik van algoritmes soms tot vooroordelen en tot discriminatie leidt.

Het zal niemand verbazen wanneer een vergelijkbare conclusie zal kunnen worden getrokken wanneer het gebruik van algoritmes binnen de gemeente Twenterand of Leeuwarden, of willekeurig welk andere gemeente dan ook, wordt onderzocht.

De conclusies van eerdere onderzoeken naar het gebruik van algoritmes bij overheidsinstanties als de Belastingdienst hebben tot dezelfde conclusies geleid.

Zie bijvoorbeeld het in Januari 2021 verschenen rapport Aandacht voor Algoritmes van de Algemene Rekenkamer, waarin een ethisch toetsingskader voor het beoordelen van (het werken met) algoritmes wordt gepresenteerd.

Ondanks alle goede voornemens blijken steeds vaker mensen problemen te hebben met algoritmes.

Hoe komt dat? Waar zit de schuldige? Waarom hebben we eigenlijk algoritmes?

Om met die laatste vraag te beginnen. We gebruiken algoritmes, dat zijn algemene procedures om dingen te berekenen of te classificeren, uit economische overwegingen. Het is een ingebakken gewoonte die aansluit bij het feit dat we in de chaotische veelheid van verschillende dingen en zaken enige orde aanbrengen: dit is een stoel en dat ook; dit is een fiets en dat ook. Dat werkt handiger dan wanneer je elke stoel en elk fiets weer apart een naam moet geven en apart moet leren behandelen. Zo werkt het ook met mensen: dit is een mens en dat ook.

Wanneer je met een paar mensen samen leeft en beslissingen moet nemen over wat iedereen toekomt of moet inbrengen dan heb je geen algoritme nodig. Maar zodra de aantallen groeien moeten er regels worden opgesteld. Een belangrijk principe van rechtvaardigheid is dat van gelijkwaardigheid. “Ieder het zijne”. We willen mensen gelijk behandelen. Maar omdat niet iedereen gelijk is wordt het ook vaak als onrechtvaardig gezien om iedereen als gelijke te behandelen. Vandaar dat er allerlei opdelingen gemaakt worden om recht te doen aan individuele verschillen die er toe doen. Een verschil dat er toe doet bij het recht op een werkloosheidsuitkering wordt bijvoorbeeld bepaald door de leeftijd: ben je ouder dan de AOW-leeftijd dan heb je geen recht op deze uitkering.

Het aantal eigenschappen die er toe doen en die we in een regel op willen nemen om een rechtvaardige beslissing te kunnen nemen, neemt geleidelijk aan toe. Gelukkig zijn er computers die de pijn verzachten, ze hebben geen last van hoofdpijn en rekenen met hun algoritmes uit wat iedere individu volgens de regels toekomt. De computer werkt met identifiers, ziet geen mensen, alleen BSNs. Een inwoner van Rotterdam is een object in een data-structuur een pakketje informatie.

Een verschil dat er toe doet, dat heet informatie. Computer algoritmes verwerken informatie. So far so good.

‘Lerende’ algoritmes

Met ‘algoritme’ wordt tegenwoordig vaak een bepaald soort algoritme aangeduid: de zogenaamd ‘lerende’ algoritmes. Die ‘leren’ regels op grond van een hoeveelheid gegevens. Dat heet inductie. Het trekken van algemene conclusies over een groep op grond van een beperkt aantal gegevens over die groep. Bijvoorbeeld: als blijkt uit heel veel gegevens (‘Big Data’ heet dat) dat mensen die van Brinta pap houden vaak blauw haar en hamertenen hebben dan wordt de algemene regel afgeleid dat als een bepaald persoon blauw haar heeft en hamertenen dat deze van Brinta pap houdt. Voor ‘van Brinta pap houden’ mag u ook ‘frauderen met uitkeringen‘ en voor ‘blauw haar’ en ‘hamertenen’ mag u ‘heeft dubbel paspoort‘, respectievelijk ‘bezit een dikke BMW‘ invullen.

De keerzijde van de algemene regels waarmee de computer werkt is de individuele burger. Die is namelijk als unicum niet volledig te identificeren als een ‘snijpunt’ van welke verzameling van regels en beschrijvingen ook.

Dat is het probleem waar Aristoteles en na hem John Venn en Hans Reichenbach al op wezen. De algemene regels zijn vaak van toepassing, vaak of soms ook niet.

John Venn stelde in 1876 that “every single thing or event has an indefinite number of properties or attributes observable in it, and might therefore be considered as belonging to an indefinite number of different classes of things“.

Het probleem is dus waar we een bepaald individu onder moeten scharen.

Stel u krijgt te horen dat een willekeurige inwoner van Nederland een kans van 0.01 heeft om te overlijden aan een bepaalde ziekte. Wat zegt dat over de kans dat u of uw dochter aan de ziekte overlijdt? U wilt meer informatie. U doet elke dag aan sport. Helpt dat? U drinkt niet. Maakt dat verschil voor de kans dat u aan de ziekte overlijdt? Welke regels en welke statistieken zijn op u van toepassing?

Het probleem van de Referentie klasse noemde de natuurkundige en filosoof Hans Reichenbach (1891-1953) dit. Hij promoveerde op het gebied van de kansberekening.

If we are asked to find the probability holding for an individual future event, we must first incorporate the event into a suitable reference class. An individual thing or event may be incorporated in many reference classes, from which different probabilities will result.”

Afhankelijk van welke referentieklasse je kiest voor een bepaald individu (de BMW rijders, de voetbalsupporters, de diabetici, de gescheiden vrouwen van middelbare leeftijd, etc.) komt je tot andere statistische conclusies.

Reichenbach’s Probleem van de Referentieklasse is onoplosbaar.

Dat algoritmes tekort schieten is dus een inherent probleem van elk systeem waarin met algemene regels en statistieken gewerkt wordt.

De onrechtvaardigheid van zo’n systeem is de keerzijde van de rechtvaardigheid die het motief is voor het invoeren van algemene regels en wetten.

Het onrecht zit er in dat de uitvoerders, de mensen die regels en algoritmes toepassen, dit feit zich niet realiseren en blind vertrouwen op de rechtvaardigheid van de regels. Alsof ze in alle gevallen de juiste conclusies trekken. Alsof deze algoritmes voor eens voor altijd de definitie van een begrip als ‘fraudeur’ hebben geleerd en precies weten op welke burgers dit wel en niet van toepassing is.

De filosoof Ludwig Wittgenstein merkte over het wisselvallige van wetenschappelijke definities het volgende op:

Wat vandaag op grond van ervaring geldt als begeleidend verschijnsel van het fenomeen A, wordt morgen voor de definitie van ‘A’ gebruikt.”

Zeg wat je wilt, zolang dat je niet verhindert te zien hoe de feiten liggen. (En als je dat ziet, zul je van alles niet zeggen.)” (Ludwig Wittgenstein, Filosofische Onderzoekingen 79)

Helaas kennen de informatie-systemen de ‘feiten’ niet en moeten de dienstdoende ambtenaren wel iets zeggen. Ze moeten iedere burger immers volgens de regels classificeren in een voorgedefinieerde categorie.

Deze problemen hebben alles te maken met de afstand tussen de beslissers en de mensen waarover besloten wordt. De beslisser rechtvaardigt zijn besluit door iedereen volgens dezelfde algemene regels te behandelen. De burger waarover besloten wordt wijst de beslisser erop dat hij niet te reduceren is tot een waarde van een variabele in zijn administratief systeem. Hij is meer dan een pakketje informatie.

Het rapport van de Rekenkamer Rotterdam komt met een baaierd aan aanbevelingen om de ambtenaren en de burger uit de beklemmende greep van de algoritmes te bevrijden. Die zullen weinig helpen zolang de kern van het probleem dat inherent is aan het gebruik van algoritmes niet wordt aangepakt.

De enige oplossing is dat de verantwoordelijke uitvoerder van de dienst met de persoon waarover het gaat in gesprek gaat zodat deze kan ‘zien hoe de feiten liggen’ en of het algoritme niet iets over het hoofd heeft gezien dat het verschil maakt.

Die gesprekken kosten tijd. En tijd is geld. Uiteindelijk is het dus een kwestie van economie. Precies daar waar de reden bestaat voor de invoering van algemene definities, wetten en regels. De politieke beleidsmakers moeten beslissen wat ze belangrijker vinden. Voldoen aan uitsluitend statistische doelen waarbij ‘niet-normale’ gevallen buiten de boot vallen. Of aandacht besteden aan ieder geval in het besef dat ‘normale’ mensen niet bestaan.

In de economie keert de wal het schip. Pas wanneer fouten ten gevolge van het ondoordacht gebruik van algoritmes een gemeente op hoge kosten jaagt, bijvoorbeeld vanwege claims van slachtoffers, zal deze bereid zijn werkelijk te investeren in een werkende oplossing: het gesprek met de individuele burger.

In het eerder genoemde artikel van Goossens et al (2012) merken de auteurs op “dat de inzet (van algoritmes) ook mogelijkheden biedt voor een betere toerusting van burgers. De vooruitzichten daarop zullen echter afhangen van de mogelijkheid of algoritmen minstens indirect tot ieders beschikking staan – wellicht in democratische, controleerbare structuren – dan wel of zij worden gecontroleerd door al dominerende en hegemoniale machten.”

Daarbij heb ik een paar bedenkingen.

De controle op de uitvoeringsorganen van de overheid ligt voor een belangrijk deel bij de volksvertegenwoordiging. Uit o.m. de ‘toeslagenaffaire’ blijkt dat deze onvoldoende geinformeerd wordt en onvoldoende capaciteit en kennis heeft om deze taak naar behoren uit te voeren.

Veel individuele burgers zijn niet of nauwelijks in staat om voor hun rechten op te komen. Bijna een kwart van de Nederlandse bevolking beschikt niet over de daarvoor vereiste taalvaardigheid.

Het is primair de verantwoordelijkheid van de overheid die allerlei intelligente technologie inzet ervoor te zorgen dat de toepassing daarvan op de besluitvorming m.b.t. de individuele burger recht doet aan de burger. Het gaat niet aan de achteloze burger te frustreren en buiten spel te zetten door deze te confronteren met de complexe implementatiedetails van de middelen die het bestuur vanwege economische motieven voor de uitoefening van haar taken aanwendt.

Over het begrip ‘toepassing van regels’

Er dient onderscheid gemaakt te worden tussen enerzijds het toepassen van een regel of functie in wiskundige zin, zoals dat door een ‘machine’ gebeurt op basis van een algoritme, en het toepassen van een rechtsregel in de rechtspraak anderzijds.

Een functie of regel zegt van zichzelf niet wanneer deze kan of moet worden toegepast (Wittgenstein). Daarvoor zullen weer andere functies of regels moeten worden opgesteld. Dit leidt tot het inzicht dat de uiteindelijke toepassing een impliciete kennis omtrent de rechtvaardige inschatting van de concrete situatie veronderstelt. Dat kan alleen door in gesprek te gaan met de betrokken burger in de concrete situatie.

In zijn Filosofische Onderzoekingen bewijst Wittgenstein zich ervan bewust te zijn dat de explicitering van begripsinhouden en regels altijd al het gebruik in de praktijk veronderstelt. De expliciet regels kunnen dus de praktijk niet funderen. Zodra impliciete kennis wordt uitgedrukt in expliciete oordelen en regels krijgt de inhoud een ander karakter. De keninhoud verandert.

Datgene waardoor de praktijk functioneert, ligt als het ware op een dieper niveau, dat steeds wezenlijk impliciet blijft.” en “Ons expliciete weten is het topje van de ijsberg. In de omvang van deze laatste vergissen wij, slachtoffers van het rationalisme, ons dan ook deerlijk.” Zo schrijft Louk Fleischhacker in De Henide als Paradigma.

Wanneer het om de toepassing van algemene regels in concrete gevallen gaat merken de auteurs op “Dat wat we ‘toepassing’ noemen, raakt ook de toegepaste regel”.(p.6). De regels van een algoritme uitgedrukt in een programmeertaal veroorzaken het ‘gedrag’, de werking, van de machine. Dit is het kenmerkende taal/sleutel karakter van het eenzinnige mathematische teken zoals dat in de machine functioneert. Daarentegen veroorzaken de rechtsregels het gedrag van mensen niet zelf.

Nu ‘intelligente’ machines het nemen van beslissingen overnemen krijgen we steeds meer te maken met ‘automation bias’, het psychologische verschijnsel waarbij menselijke besluitvormers geneigd zijn algoritmische output te volgen en onvoldoende oog te hebben voor afwijkende niet-geautomatiseerde informatie. Dit is waar B,J, Fogg, de vader van de Persuasive Technology in zijn bekende boek al op wees. Computers hebben voor veel mensen iets magisch. Mensen hebben vaak meer vertrouwen in wat er op een beeldscherm verschijnt dan in wat mensen zeggen. Daarom herhaal ik als tegengif nog eens de volgende stelling bij mijn proefschrift:

Op een computer kun je wel rekenen, maar je kunt er niet op vertrouwen

Het onethische van de automatie

Er wordt wel gesproken van autonome technologie. In de opvatting dat technische artefacten autonoom zouden zijn of kunnen zijn schuilt een niet te verwaarlozen gevaar. Ze berust op een misvatting over de aard van de zelfstandigheid van de techniek. De identiteit van het technische artefact heeft een wiskundig karakter.

Als we de autonome machine zijn eigen gang laten gaan dan gaan we er kennelijk vanuit dat we voor eens en voor altijd expliciet in een wiskundig model en een daarop gebaseerd programma hebben kunnen vastleggen wat deze moet doen. Dat kan echter alleen als we afzien van het feit dat onze explicitering van kennis in een bepaald domein altijd voorlopig is en dat we deze zullen moeten en willen aanpassen op basis van nieuwe ervaringen die we opdoen.

Ethiek gaat om de waarde van het unieke andere dat gegeven is; om dat wat niet tot het bekende te reduceren is. De rechtvaardigheid vereist dat de rechter de regels interpreteert in de concrete gegeven situatie, dan wel dat hij die regels toepast die in de gegeven situatie van toepassing zijn. Het unieke individuele is niet in regels te vatten.

Machines die leren uit gegevens (big data) en de door (statistische) inductie geleerde regels of modellen toepassen op nieuwe gevallen negeren het unieke nieuwe van de situatie of persoon waarop ze worden toegepast. In die zin staat de ‘blinde’ (want in zichzelf gesloten) automatie als meest expliciete uitdrukking van het wiskundig denken en van de idealiteit van de producten van het mathematische denken op gespannen voet met het ethische principe dat vereist dat we recht doen aan de waarde van de concrete andere situatie, die juist als anders niet te reduceren is tot de kennis die op grond van ervaringen in het verleden is opgebouwd.

Literatuur

Cathy O’Neil (2016) Weapons of Math Destruction, How big data increases inequality and threatens democracy. Penguin Books, 2016.

Colyan et al. (2001). Is it a crime to belong to a reference class? The Journal of Political Philosophy, Volume 2, Number 2, pages 168-181, 2001.

Goossens, J., Hirsch Ballin, E., van Vugt, E. (2021). Algoritmische beslisregels vanuit constitutioneel oogpunt: Tweedeling tussen algemene regels en concrete toepassing onder druk. Tijdschrift voor constitutioneel recht12(1), 4-19.

Published by

admin

Rieks op den Akker was onderzoeker en docent kunstmatige intelligentie, wiskunde en informatica aan de Universiteit Twente. Hij is gepensioneerd.

Leave a Reply