De zielloosheid van de algoritmes en de ethiek aan de keukentafel

“I am not a value of a mathematical variable” (Hilary Putnam)

Ik kom uit een katholiek nest. Ik mocht wel op voetbal, maar alleen bij MKV’29, de enige plaatselijke katholieke voetbalvereniging, waarvan het eerste elftal ergens in een onderafdeling van de KNVB voetbalde. We leenden boeken bij de katholieke bibliotheek. Ik was daar een regelmatig bezoeker, want ik las veel en graag. Dat hield overigens op toen ik op de middelbare school verplicht werd te lezen. Via de leraar Nederlands probeerden mijn ouders nog invloed te hebben op wat ik las. Hij had voor mij ‘Legt uw hart daarop‘ van Judicus Verstegen uitgezocht voor mijn boekenlijst. Een leraar moest opvoeden.

Het aantal boeken dat je mocht lenen was beperkt. Je ging met het na veel wikken en wegen uitgezochte stapeltje naar de mevrouw die achter een tafeltje zat de uitleenadministratie te doen.

“Je hebt een boek teveel”, zegt ze tegen mij. Ik kijk verbaasd op. “Ja, je hebt thuis nog twee boeken, zie ik.” Oh, zeg ik. “Welk boek wil je terug zetten?” vraagt ze. Ik ken de mevrouw. Ze zit hier vaak en ze weet wie ik ben: de zoon van de penningmeester. Mijn vader zit samen met haar in het bestuur van de bibliotheek. Dat deed hij veertig jaar. Hij kreeg er nog een lintje voor van de Koningin. “Ach, neem ze allemaal maar mee”, zegt ze, wanneer ze merkt dat ik moeite heb een keuze te maken. En ze schrijft voor elk van de geleende boeken op een uitleenkaartje de teruggeefdatum en steekt die in het boek achter het kaft. “Doe je de groeten aan je vader en moeder”, zegt ze als ik naar buiten ga.

Ik had geluk dat zij er zat. Soms zit er een jongeman de administratie te doen. Hij houdt zich strikt aan de voorgeschreven regels. “Regels zijn regels” zegt ie, als ik hem zeg dat ik ze heus de volgende keer allemaal weer terugbreng.

Ik weet niet of de katholieke bibliotheek, die draaide op vrijwilligers, nog steeds bestaat. Ik vermoed van niet. Maar als hij nog bestaat dan zit de mevrouw van de uitleenbalie nu zeer waarschijnlijk achter een beeldscherm. En als je dan een boek te veel mee wilt nemen, dan zegt ze ter verantwoording dat De Computer het niet aan kan. Je kunt maximaal 3 boeken tegelijk lenen. “Maar weet u wel wie ik ben?”. “Ik ben wel de zoon van de penningmeester, hoor!” “Al was u God zelf, jongeman. De Computer staat het niet toe. Ze kent u niet.” “God is dood”, citeer ik Nietzsche. “En de techniek is zijn lijk” reposteert ze, Mulisch citerend.

Het heeft iets rechtvaardigs. Gelijke monniken, gelijke kappen. Voor de regels is iedereen gelijk. Voor de regels ben je als individu slechts een geval.

Maar hoe rechtvaardig is dat gelijkheidsidee dat zo sluipend door het heersende mathematische en technologische denken in onze samenleving is geslopen en dat alle gebieden van ons leven doordrenkt eigenlijk?

De moderne samenleving heet individualistische te zijn. Vanuit het perspectief van het autonome vrije individu geldt: ik onderscheid mij van alle anderen en ik wil als zodanig behandeld worden, niet als een nummer. Hoe valt dit te rijmen met het individu zoals dat vanuit het perspectief van de wetenschap en de economie wordt gezien? Vanuit dat perspectief bestaat het individu niet in zijn volheid zoals hij zichzelf, en de mensen met wie hij zijn leven deelt beleeft. Vanuit het wetenschappelijk perspectief is het individu een geval waarvoor algemene regels en wetten gelden. Zoals het gegeven voor de mathematische natuurwetenschap niet als een uniek historisch gebeuren wordt opgevat, maar als een verschijnsel van een algemene wetmatigheid. Zoals de moderne kwantumtheorie geen uitspraken doet over individuele deeltjes maar zich moet beperken tot statistische uitspraken over verzamelingen deeltjes, zo doen de sociale wetenschappen statistische uitspraken over populaties. Een individu is vanuit dat perspectief een element van een datatype, een waarde van een variabele in een wiskundig model.

Hoe komen deze twee perspectieven ooit samen? Hoe kunnen we ze met elkaar verzoenen?

De ethiek van de algoritmes

Het bibliotheekbestuur heeft ondertussen een ICT bedrijf in de hand genomen dat een ‘intelligent uitleensysteem’ heeft ontwikkeld dat op grond van allerlei persoonlijke gegevens van de klant, waaronder de geschiedenis van het leengedrag, bepaalt hoeveel boeken er tegelijk geleend mogen worden. Het systeem maakt daartoe een ‘lenersprofiel’. Het kan de klant op grond hiervan ook behulpzaam zijn door boeken aan te bevelen. Sensortechnologie vervangt de mens achter de uitleenbalie. De klant interacteert met een ‘intelligente agent’ (’embodied’ en voorzien van spraakherkenning) op een beeldscherm. Het uitzoeken van een boek doe je thuis op de computer. Een robot legt het gevraagde boek in een soort buizenpost. De toevallige ontmoetingen met andere bezoekers tussen de naar muffe boeken ruikende stellingkasten. Die behoren tot een grijs verleden.

Bedrijven als  NBD Biblion zijn continu op zoek naar “nieuwe manieren om onze werkzaamheden slim en efficiënt in te vullen”.

Het zelflerend selectiesysteem van NBD Biblion (bron: nbdbiblion.nl/data-en-automatisering)

Het uitlenen van een boek als een sociale intermenselijke activiteit is de blijvende kern van het uitleensysteem. Alleen de technische implementatie en de organisatie heeft er een systeem van gemaakt waarin de functionele kern uitgedokterd is en los is komen te staan van de directe activiteit van persoon tot persoon die het uitlenen van iets in wezen is. Als er al ergens in dit systeem contact is van mens tot mens dan is dat vermoedelijk wanneer het systeem niet werkt. Of wanneer er een vermoeden bij sommige klanten bestaat dat het ‘recommender’ systeem, dat boeken aanbeveelt nogal een ‘bias’ heeft voor bepaalde politiek of religieus gekleurde literatuur. (Wat ons doet denken aan de leraar Nederlands die mij Judicus Verstegen aanbeveelde.)

Met de term ‘algoritme’ (een handelingsvoorschrift voor programmeerbare machines) wordt vaak een specifiek type algoritme bedoeld, namelijk die op basis van gegevens (‘big data’) met behulp van machine learning (ML) technieken, dat zijn statistische modellen, beslissingen nemen, dan wel aan de gebruiker voorstellen. Ook het met gebruikersprofielen werkende bibliotheeksysteem behoort hiertoe. Statistieken gaan niet over individuen áls individu (zie bijvoorbeeld Olaf M. Dekkers en Jesse M. Mulder, 2020 en mijn stukje over Wat heb je nu aan kansen?).

Bedrijven en overheden maken steeds meer gebruik van algoritmes bij het leveren van hun diensten. Mensen hebben steeds vaker te maken met ‘slimme’ algoritmes die het leven besturen. Daar zitten niet alleen maar positieve kanten aan. Techniekfilosofen en ethici onderzoeken de problemen die de toepassing ervan met zich meebrengt. Onder de parapluterm Computer Ethiek wordt nagedacht en gedebatteerd over de ethische problemen waarvoor de moderne informatietechnologie de samenleving plaatst. De informatiefilosoof Luciano Floridi neemt daarin een vooraanstaande plaats in. Hij heeft er veel over gepubliceerd en zit in EU werkgroepen die rapporten schrijven.

Hier ligt echter de focus op algoritmes. Welke zijn de ethische problemen die het gebruik van algoritmes met zich meebrengt?

We zagen dat bij de technologisering van het uitlenen van boeken de concrete intermenselijke inhoud van deze activiteit uit het proces is verdwenen en bijna als iets negatiefs er tegenover komt te staan. Het proces dringt zich aan de mens op. Dit is een kenmerk van de technologisering, een proces dat door economische motieven, effectiviteitsverbetering, wordt voortgestuwd. We zien dit proces op alle terreinen waar algoritmes hun intrede doen en de menselijkheid uit de sociale processen haalt. De technologie komt echter niet uit de lucht vallen: het komt uit mensen voort.

Om de ethische problemen te begrijpen moeten we dit proces van mathematisering en technologisering begrijpen. Technologie begint bij het handelen van mensen en eindigt bij het menselijk handelen. Een analyse van de concrete menselijke activiteit is daarom gewenst.

We kunnen aan de menselijke bezigheid een aantal aspecten onderscheiden. Dat geldt zowel het spontane bezig zijn als de meer georganiseerde bezigheid zoals de arbeid. Het technische, het economische en het ethische aspect. Het gaat bij de bezigheid om een persoonlijke inzet waarbij een bedoeld resultaat wordt verkregen. Het technische betreft de methode of middelen die de inzet aan het resultaat verbindt. Dat resultaat wordt beschouwd als iets uitwendigs, een product van het handelen. De uitwendigheid van de relatie tussen de activiteit van het maken en het resultaat ervan is het kenmerk waarin het Aristotelische poiesis verschilt van praxis. Het economische betreft de schaarse middelen die de inzet met zich mee brengen om het resultaat te bereiken. Het ethische betreft de afweging van de morele waarden die een rol spelen bij de bezigheid. In termen van Aristoteles’ Nicomacheïsche ethiek moet het handelen als praxis ‘deugen’. Dat gaat uit van het morele deugdzame karakter van het handelend subject.

De gedachte dat machines en algoritmes ‘morele agenten’ (‘moral agents’) zouden zijn is volgens mij het gevolg van een verwarring van de begrippen poeisis en praxis. Het technische en economische behoort tot de sfeer van de poeisis, het maken. Het morele betreft de concrete praxis. (Over moral agency: Deborah G. Johnson and Merel Noorman, 2014)

De bezigheid moet menswaardig zijn. Voor alle betrokkenen. Of arbeid menswaardig is hangt af van de stand van de techniek. Het uitdiepen van een sloot met een schep is mensonwaardig werk wanneer er machines zijn die hetzelfde werk kunnen doen.

In het onmiddellijke bezig zijn, zijn de in de reflectieve analyse onderscheiden aspecten integraal en ongescheiden aanwezig. Het individu is daarbij in zijn geheel aanwezig. Het is geheel en al zijn bezigheid.

Iedere bezigheid vereist van het subject een aantal min of meer specifieke vaardigheden. Deze vereisen specifieke vermogens die we onderscheiden in lichamelijke, verstandelijke en sociale vermogens, waaronder het vermogen zich in de directe omgang met medemensen te gedragen, volgens de geldende normen.

Zowel van degene die een boek uitleent als van degene die een boek leent verwachten we dat deze zich houdt aan deze normen. Binnen de familie en in een klassieke samenleving kennen de mensen elkaar en is het sociale handelen gekleurd door de individuele betrokkenen en hun verhoudingen tot elkaar. Of en onder welke voorwaarden de een iets uitleent aan de ander is integraal onderdeel van de intersubjectieve relatie tussen de individuen, die elkaar kennen. Het individu ontleent zijn waarde aan zijn plaats in het netwerk van sociale verbanden. We zagen een overblijfsel van deze ‘primitieve’ vorm van interactie in het inleidend uitleenverhaal. De idee van een instituut als een uitleenbibliotheek is natuurlijk al een sociale constructie die het uitlenen institutionaliseert. Er zijn daartoe aspecten van het uitlenen onderscheiden. Zo is degene die de administratie doet niet zelf eigenaar van de boeken. De klant is slechts als betalend lid bekend bij het instituut. Kenmerkend is de opdeling van verschillende functies en de afstand die tussen betrokkenen, die verschillende rollen hebben in het proces, ontstaat.

Het mathematische denken, de denkwijze van de experimentele natuurwetenschap en technologie kenmerkt zich door het afzien van het individuele. Deze wetenschappelijke denkwijze ziet het gegevene niet in relatie tot het individuele unieke van het moment, maar in functie van een algemene wetmatigheid. Ze is gericht op de formulering van algemene regels volgens welke de mens in relatie tot de natuur handelt.

Deze functionalisering die inherent is aan de mathematische natuur-wetenschappelijke denkwijze (zie Cassirer’s Substanz Begriff und Funktion Begriff) zien we ook in de organisatie van de samenleving. Allereerst in de arbeid. De mens zet zich zelf in als arbeider, als functionaris, die een bepaalde welomschreven taak heeft. Hij wordt een radertje in een machinerie. En geleidelijk aan wordt hij als arbeider door machines vervangen. Niet zonder weerstand. De mens ontleent in belangrijke mate zijn identiteit aan zijn werk en de andere sociale rollen die hij ‘speelt’.

Als de ethische problemen die gepaard gaan met het gebruik van algoritmes voortkomen uit het functionele denken in termen van algemene wetten en regels mogen we dan verwachten dat de oplossing van deze problemen gevonden kunnen worden door regels voor gedrag op te stellen? Informatici die ‘ethische machines willen maken, doen dat.

Bij ethiek gaat het echter niet om een theorie, maar om een praktische houding die getuigt van inzicht in de specifieke situatie waarin men handelt. Ethische problemen los je niet op door regels op te stellen. Het gaat juist om de rechtvaardige toepassing van de geldende regels in concrete situaties, waarin het individuele juist in haar volheid wordt beleefd en gewaardeerd en niet alleen in relatie tot een algemene regels en wetten. Die laatste moeten zelf ook meegewogen worden en niet blindelings toegepast. Dit vereist een intelligentie die het verstandelijk toepassen van regels te boven gaat. Het gaat om inzicht in de concrete situatie die om een eigen afweging vraagt. In die zin is ethiek juist anti-theoretisch. Het handelen van de ander zegt ons meer dan de morele regels die hij zegt te volgen.

De wetenschap streeft naar algemene inzichten in noodzakelijke verbanden en probeert het toeval uit te sluiten. Een goed voorbeeld van het streven naar gelijkheid en het uitbannen van toevallige omstandigheden, zoals we dat in de wetenschappen nastreven, als iets onrechtvaardigs, zien we in het medische ethische protocol voor de nationale triage. Dit ethische protocol wordt van kracht wanneer er een landelijk tekort is aan IC-bedden. Zo’n situatie dreigde tijdens de Corona pandemie. Patiënten moeten volgens het protocol door ziekenhuizen ingeschreven worden in een nationaal informatiesysteem waar volgens het door medici en ethici gespecificeerde protocol besloten wordt welke patiënt in aanmerking komt voor (verdere) behandeling op een IC-afdeling. De idee is dat dit niet af mag hangen van de toevallige beschikbaarheid van een IC-bed ter plaatse. In het protocol is opgenomen dat de lokale triagist die communiceert met het triagesysteem niet zelf bij de patiënten om wie het gaat betrokken mag zijn. Individuele betrokkenheid is volgens het ethisch protocol onrechtvaardig. Dat ik toevallig de zoon van de penningmeester ben mag geen rol spelen. Regels zijn regels.

In de literatuur over ethiek van algoritmes is onvoldoende aandacht voor de dieper liggende oorzaak van de ethische problemen die algoritmes met zich meebrengen. Die ligt in de aard van het mathematiserende en functionaliserende denken waarvan de algoritmes het product zijn.

Er wordt erg veel door wetenschappers en filosofen getheoretiseerd over ethiek van algoritmes. Onlangs verscheen The ethics of algorithms: key problems and solutions, geschreven door onderzoekers van het Oxford Internet Institute, een instituut dat zich bezig houdt met de problemen van onze digitale samenleving. Het artikel is een vervolg op het in 2016 gepubliceerde “The ethics of algorithms: mapping the debate” van Mittelstadt et al. Over het doel van beide artikelen, waarvan de informatiefilosoof Professor Luciano Floridi co-auteur is, zegt het artikel:

“The goals are to contribute to the debate on the identification and analysis of the ethical implications of algorithms, to provide an updated analysis of epistemic and normative concerns, and to offer actionable guidance for the governance of the design, development and deployment of algorithms.”

Het paper biedt een literatuur review van publicaties over ethische aspecten van algoritmes tussen 2016 en 2020. Dat zijn er vele honderden. Met name de ontwikkeling en het gebruik van AI algoritmes voor ‘socially good’ (AI4SG) is toegenomen. Het gaat daarbij om het voorspellen en beheren van sociale processen in de meest brede zin. Denk aan toepassingen op het gebied van overheidsdiensten, verzekeringen, publieke beveiliging (predictive policing) of medische toepassingen (gepersonaliseerde voorspellende geneeskunde).

Bovengenoemde artikelen geven aanbevelingen voor overheden betreffende wetgeving over ontwikkeling en gebruik van algoritmes en gegevens. Dat is des te urgenter naarmate men steeds meer geneigd is machines die voorzien zijn van slimme algoritmes (‘kunstmatige intelligentie’) als autonome ‘agenten’ te beschouwen. Denk aan ‘zelfrijdende auto’s’, en onbemande wapensystemen die zelf hun doel zoeken en beslissen of er sprake is van een vijandig object dat beschoten moet worden. De mens dreigt ‘out-of-the-loop’ te raken en komt er alleen nog aan te pas als er iets mis is gegaan en de scherven moeten worden opgeruimd.

In Nederland verscheen begin dit jaar het rapport Aandacht voor Algoritmes over het gebruik van algoritmes door de Nederlandse overheid. De Rekenkamer heeft gekeken waar bij de overheid wat voor soort algoritmes gebruikt worden. Het gaat haar uiteindelijk om een (ethische) toetsing van het gebruik van algoritmes. Daartoe is een ethisch toetsingskader opgesteld. De vragen in het toetsingskader zijn opgesteld aan de hand van ethische principes. Zie onderstaande tabel.

Uit: Aandacht voor Algoritmes van de Rekenkamer

Wat opvalt is dat deze principes helemaal niet zo specifiek zijn voor het beoordelen van algoritmes. Het zijn principes die van toepassing zijn op het omgaan van mensen met elkaar. Dat is niet zo vreemd wanneer we bedenken dat de algoritmes de middelen worden die de mensen hanteren in hun omgang met elkaar. Deze middelen nemen een steeds zelfstandiger vorm aan en spelen zelf de rol van sociale agent.

De vraag is nu hoe het komt dat het gebruik van algoritmes er toe leidt dat deze principes weer zo nadrukkelijk moeten worden geherformuleerd. Waardoor komt het dat deze in het gedrang zijn geraakt?

De genoemde artikelen en rapporten zijn er vooral op gericht een praktische gids te bieden voor ontwerpers en gebruikers van algoritmes. Wat ze niet bieden is een analyse van de kern van het probleem. Die moeten we zoeken bij de functionalisering van een bepaald aspect van (sociaal) handelen. De technologie, met name de informatie- en communicatie-technologie speelt een centrale rol in dit proces. Het wordt gekenmerkt door abstractie, analyse, constructie en afstandelijkheid.

De behoefte voor een ethiek van algoritmes komt voort uit het feit dat door de functionalisering van ons werken en handelen de interactie van persoon tot persoon uit het zicht is verdwenen.

Het is de taak van de ethiek begrip bij te brengen die tegengewicht biedt tegen de tendens het individuele slechts in relatie tot abstracte wetten en algemene regels te zien in plaats van het individuele in zijn uniekheid en bijzonderheid te waarderen.

Net als mensen mogen algoritmes niet discrimineren. Maar mensen moeten en zullen altijd rekening houden met de persoonlijke omstandigheden van de ander als individu. Een machine kent die niet.

Recentelijk verscheen ook Algoritmische beslisregels vanuit constitutioneel oogpunt (Goossens et al, 2021) een publicatie over de rechtstatelijke risico’s ten gevolge van het gebruik van algoritmes door de verschillende overheidsinstanties.

De focus van deze studie ligt op “de fundamentele tweedeling tussen algemene regels en de concrete toepassing via individuele beslissingen alsmede, in het licht daarvan, de wisselwerking tussen normen en feiten.”

De auteurs wijzen erop dat de besluitvorming van het bestuur in individuele gevallen al geruime tijd steeds vaker (deels) geautomatiseerd plaats vindt op basis van algoritmische beslisregels. “Hierdoor kan de relatie vertroebelen tussen enerzijds een concreet besluit dat het resultaat is van de toepassing van een algoritmische beslisregel en anderzijds de algemene regels die oorspronkelijk ten grondslag liggen aan de bevoegdheid van het bestuur om in individuele gevallen concrete besluiten te nemen.”

De auteurs wijzen er terecht op dat wanneer het om de toepassing van algemene regels in concrete gevallen gaat er een wisselwerking is tussen de regel en de situatie. “Dat wat we ‘toepassing’ noemen, raakt ook de toegepaste regel”.(p.6). De toepassing van een regel in de praktijk is iets anders dan het toepassen van een wiskundige functie op een argument, zoals een machine dat doet.

Datgene waardoor de praktijk functioneert, ligt als het ware op een dieper niveau, dat steeds wezenlijk impliciet blijft.” en “Ons expliciete weten is het topje van de ijsberg. In de omvang van deze laatste vergissen wij, slachtoffers van het rationalisme, ons dan ook deerlijk.” Zo schrijft Louk Fleischhacker in De Henide als Paradigma.

We onderscheiden ‘iemand kennen’ en ‘informatie over iemand hebben’. Je kunt heel veel informatie over iemand hebben en hem toch niet kennen. (Zie hierover mijn stukje over het essay On Denoting van Bertrand Russell die wees op dit belangrijke onderscheid.) Machines kennen geen mensen, ze hebben informatie over mensen.

Het is dan ook niet voor niets dat de ambtenaren van de overheidsdiensten na de toeslagenaffaire het dringend advies kregen ‘achter hun beeldschermen vandaan te komen’ om met de betreffende burgers die het slachtoffer werden van ‘hun’ algoritmes ‘aan de keukentafel te gaan zitten’.

Ik geloof niet dat de oplossing van de ethische problemen door gebruik van algoritmes gezocht moeten worden in het opstellen van regels en wetten. Het probleem is hoe we als burger in een samenleving de beide perspectieven op het individu met elkaar kunnen verzoenen. Inzicht in die perspectieven is voorwaarde daarvoor.

“Algorithms are not ethically neutral” wordt vaak beweerd (Tsamados et al. 2021). Dat is niet vanwege een specifieke bias (O’Neil 2016). Algoritmes zijn onethisch vanwege hun abstracte algemene karakter waardoor het gegeven slechts als geval wordt opgevat en het unieke ervan wordt genegeerd.

Bronnen

Olaf M. Dekkers en Jesse M. Mulder (2020). When will individuals meet their personalized probabilities? A philosophical note on risk prediction. Eur J Epidemiol. 2020 Dec;35(12):1115-1121.

Goossens, J., Hirsch Ballin, E., van Vugt, E. (2021). Algoritmische beslisregels vanuit constitutioneel oogpunt: Tweedeling tussen algemene regels en concrete toepassing onder druk. Tijdschrift voor constitutioneel recht12(1), 4-19.

Deborah G. Johnson and Merel Noorman (2014). Artefactual Agency and Artefactual Moral Agency. In: P. Kroes and P.-P. Verbeek (eds.), The Moral Status of Technical Artefacts, Philosophy of Engineering and Technology, Springer Science+Business Media Dordrecht, 2014, pp.143-158.

“Accounts of artefactual moral agency that draw on the autonomy conception of
agency, however, are problematic when they use an analogy between human moral
autonomy and some aspect of artefacts as the basis for attributing to artefacts the
status associated with moral autonomy.”

“(…) when humans delegate tasks to artefacts, they do not delegate responsibility to the artefact.” (p. 154).

“Attempts to extend moral autonomy to artefacts seem to move from a metaphor to a claim of moral status, that is, they claim humans and machines are analogous and, then, on the basis of the analogy attribute to artefacts the status (or potential to have the status) associated with moral autonomy.” (p.157)

Cathy O’Neil (2016) Weapons of Math Destruction, How big data increases inequality and threatens democracy. Penguin Books, 2016.

Louk E. Fleischhacker (1999). `De Henide als Paradigma. Otto Weiningers invloed op Ludwig Wittgenstein’ in: De Uil van Minerva 15 nr. 3 (Lente 1999)

Floridi, L., Cowls, J., King, T.C. et al. How to Design AI for Social Good: Seven Essential Factors. Sci Eng Ethics 26, 1771–1796 (2020).

Floridi, L., Sanders, J. (2002). Mapping the foundationalist debate in computer ethics. Ethics and Information Technology 4, 1–9 (2002).

Mittelstadt BD, Allo P, Taddeo M, Wachter S, Floridi L (2016) The ethics of algorithms: mapping the debate. Big Data Soc.

Tsamados, A., Aggarwal, N., Cowls, J. et al. (2021). The ethics of algorithms: key problems and solutions. AI & Soc (2021). https://doi.org/10.1007/s00146-021-01154-8

Judicus Verstegen (1967). Legt uw hart daarop. Amsterdam Querido.

De titel is ontleend aan het Bijbelboek Richteren 19:30, Legt uw hart daarop, geeft raad en spreekt! Het thema is vergeleken met dat van Nooit meer slapen van W.F.Hermans. Een Nederlands wetenschappelijk onderzoeker (Verstegen was zelf chemicus) werkt in Israel aan fysisch-chemisch onderzoek in een wedloop met concurrerende onderzoekers uit de VS. Hij beziet Christus in het licht van de Holocaust. Zijn Israëlische vriendin wordt vermoord.

Published by

admin

Rieks op den Akker was onderzoeker en docent kunstmatige intelligentie, wiskunde en informatica aan de Universiteit Twente. Hij is gepensioneerd.

Leave a Reply