De Zelfkennis van Clairy

In de serie Denken in Tijden van Corona gaat het deze keer over de zelfkennis.

Het filosofies debat

Bij gebrek aan voetbal keek ik zondagmiddag naar Het Filosofisch Kwintet. Het bestond uit: Sidney Volmer, mediadeskundige, Beate Roessler, hoogleraar ethiek, Daan Roovers, nationaal filosoof, Dimitri Tokmetzis, datajournalist o.a. werkend voor De Correspondent, een kritisch journalisten club. Het debat werd voorgezeten door Clairy Polak. En het ging over manipulatie door de commercie. En de vraag die aan de orde kwam was hoe vrij zijn wij nog? hebben wij nog wel iets te willen? worden wij in ons gedrag al niet volledig bepaald door de commercie? Daarbij verwijst “wij” naar het moderne als autonoom gedachte vrije individu, lid van de democratisch samenleving, zoals de Nederlander zich graag ziet. Mensen dus zoals Clairy Polak. Wie is Clairy Polak?

Wij hebben indertijd haar gedragingen uit en te na geanaliseerd wanneer zij bezig was met waar zij bedreven in is: mensen interviewen. Het ging ons daarbij niet in de eerste plaats om haar verbale gedrag, om wat ze zegt, om de vragen; het ging ons vooral om het niet-verbale gedrag. Ik keek met name naar het beurtwisselgedrag (turn-taking) tijdens haar interviews. Haar kijkgedrag, haar hoofd- en hand-bewegingen, haar glimlachen, en vooral de timing van spreken en luisteren. Want bij een interview komt het vooral aan op luisteren, iets wat bij de meeste praatprogramma’s wel eens vergeten wordt. In een eerder stukje in deze serie stelden we al voor meer luisterprogramma’s te maken en minder praatprogramma’s. Ik herinner me met name haar interview met Arthur Docters van Leeuwen, toen nog voorzitter van het College van Procureurs-Generaal, waarin vanwege het merkwaardige beurtwisselgedrag van de jurist en kinderboekenschrijver dit gedrag expliciet door Clairy aan de orde werd gesteld. Arthur had namelijk de gewoonte in zijn beantwoordingen lange pauses in te lassen waardoor Clairy dacht, geheel volgens de norm, dat hij de beurt overgaf. Wanneer Clairy dan haar vervolgvraag stelde hernam de man weer het woord. Toen dat tot enige irritatie leidde bij de jurist vond Clairy het tijd hem even te wijzen op zijn wat onhandige turn-taking behavior. “U doet steeds net of u stopt met praten”. Het is bekend dat mensen de timing in de loop van een gesprek aanelkaar aanpassen. Soms kost dat wat meer tijd dan anders. Zeker wanneer we met autistische mensen van doen hebben.

We kunnen ter geruststelling, wellicht, Clairy wel mededelen dat onze analyses van haar tiny behaviors niets te maken had met een bijzondere interesse in haar als persoon. Wij hebben in het kader van ons onderzoek vele mensen op video opnames tot in de haarvaten van hun gedrag geanaliseerd zonder ook maar de minste interesse in de persoon zelf die wij bestudeerden. “The moments, not the person.” is de bekende term van de socioloog Erwin Goffman, uit de inleiding tot Interaction Rituals, waarin hij het onderwerp van de Interactie Analyse definieert. Waarom deden we dit onderzoek? Ten behoeve van de technologie.

Kunstmatige intelligentie – natuurlijk werden AI en machine learning genoemd door het Kwintet – begint bij het bestuderen van het gedrag onder abstractie van de persoon, het zelf. De manieren waarop in het gedrag de persoon zich toont, verwerkelijkt, werkt, werden op zich gesteld. Wij doen geen psycho-analyse. (Over het verschil in methode zie Theo de Boer, Kritische Analyse van de Grondslagen van de Psychologie). Wij bouwden virtuele mensen (sociale robots, avatars) die bijvoorbeeld de rol konden spelen van een verdachte in een politieinterview, nadat we vele uren video opnames van politieverhoren analiseerden. Waarom zou je dat willen? Dat is een goeie vraag, waarop dus verschillende antwoorden mogelijk zijn. Als u het mij nu zou vragen zou ik zeggen omdat ik juist wel geinteresseerd ben in de persoon; in de mens in relatie tot zijn objectivatie in de vorm van de technologie. Terug naar het debat van het Filosofisch Kwintet. Ook daarin ging het over de mens.

Wanneer je naar een TV gesprek bij de EO keek, over whatever onderwerp, je kon er vergif op innemen, maar vroeg of laat kwam de aap uit de mouw: God. Uiteindelijk ging het over hoe de mens zich tot God verhoudt. “God is dood“, riep de dolle mens Nietzsche ons op markt de toe, “en de techniek is zijn lijk“, voegde Mulisch enige jaren later toe. “Van Causa sui tot Automatie” is de titel van de beroemde inaugurele rede van de Amsterdammer Jan Hollak bij de aanvaarding van zijn ambt als ordinarius in de moderne wijsbegeerte in Nijmegen. Wie nu naar een TV programma over de invloed van internet kijkt weet wie er vroeg of laat als een aap uit de mouw komt: Google.

Zelfkennis

Wil je weten wie je bent? Vraag Google. Google weet meer van ons dan we denken. Je kunt ten allen tijde – het staat in de wet – de gegevens opvragen die commerciele bedrijven en overheidsinstellingen van jou hebben. En ook de profielen, de categorieen waarin de machine learning algoritmes je hebben geclassificeerd op basis van al die data die ze over je hebben verzameld. Dat ben jij. Die enorme vector van attribuut-waarde-paren, een complex item in een enorme datastructuur, misschien wel met als onderdeel je gnoom, je genetische code, wanneer je ooit een keer DNA hebt afgestaan. Want je weet niet hoe je data, als een virus, door de commerciele wereld zwalkt en uiteindelijk bij Google terecht komt. Facebook, Twitter, Instagram, Google Chrome, Google Class, het zijn de tentakels, de zenuwen van het netwerk, het brein van Google. Werken daar nog mensen? Ethici, steeds meer ethici, die bepalen wat nog acceptabel is en interessant. Ze voeren de morele software agenten die Googles strategie berekenen.

Manipulatie

Het ging over manipulatie en het begon met een poging het eens te worden over wat dat is. Informatici als moderne filosofen nu eenmaal zijn willen altijd eerst een specificatie van de begrippen, het liefst in een heldere taal waarmee we aan de slag kunnen. Zo’n definitie moet uit de data komen. Is er sprake van manipulatie wanneer een auto van SHELL middels een sticker claimt CO2-neutraal te rijden? Nee, zegt de filosoof want daarvan ben je je bewust en daar kun je je expliciet toe verhouden. Er is sprake van manipulatie als het onbewust is, als je het niet weet. Iemand manipuleert je als je door iemand beinvloed wordt in je gedrag zonder dat het expliciet is gemaakt dat het de bedoeling van de ander is om te gedrag of denken te beinvloeden. Onderwijs en opvoeding zijn typisch bedoeld om je denken en gedrag (Bilding) te beinvloeden. Of dat nu op een kleuterschool is, door moeders thuis of door de hoogleraar Ethiek tijdens haar Zoom sessies met haar class. Dat is geen manipulatie. Nudging, voorbeeld: snoep bij kassa supermarkt, is een vorm van verleiden en is manipulatie, totdat je weet hoe het werkt. Op zich is daar niks mis mee.

Wil je een systeem, de Natuur, de mens, de samenleving, een virus, manipuleren, dan moet je er kennis over hebben. (Waarom zouden we anders kennis willen nemen van iets, anders dan om dat iets te manipuleren?) AI past kennis over systemen toe ten behoeve van de technische manipulatie. Turing award winnaar Judea Pearl (vader van Daniel, de door Alqaida onthoofde joodse journalist van de Wall Street Journal) , ontwerper van Bayesiaanse netwerken en causaal inferentie machines heeft zich als doel gesteld de wetenschappelijke arbeider te automatiseren. Waarom zouden we dat willen? Voor Hollak is de AI de uitwendige objectivatie van de technische idee, het zelfbegrip van de moderne westerse mens, waarvan de dialectische structuur door Hegel op filosofische wijze in zijn Wissenschaf der Logik tot uitdrukking is gebracht. Voor wie het snapt. Informatici die snappen wat een recursieve procedure is en weten hoe een computer werkt (niet technisch maar naar haar begrip) die snappen Hegel. Google heeft veel informatie over ons maar kent ons niet persoonlijk. Voor Google bestaan er geen personen, slechts informatie-bronnen en behoeftigen. Bertrand Russell heeft in zijn bekende “On denoting” ons al gewezen op het verschil tussen die twee vormen van kennen. Wij weten veel van Clairy, maar wij kennen haar niet. En dat weet ze.

“Is er dan geen enkel domein meer waar we vrij zijn van manipulatie” was de vraag die ze stelde. Ik zie mijn kleindochter van nog geen twee de wereld ontdekken: hoe ze aandacht heeft voor een miertje dat op een bloempje kruipt; voor de kiezelsteentjes die ze door haar vingertjes laat glijden, hoe alles nog haar verwondering wekt: boom, beer, boek.

“Misschien onze gedachten? de binnenkant van ons hoofd?” oppert Sidney Volmer, de mediadeskundige. Doelt hij op de vrije wil? Ons vermogen ons te verzetten, juist anders te doen. Willen we Google manipuleren? Hoe dan? Laten we de tijd nemen. (De reklame vooraf aan het programma beval de kijker Yoga aan. Zou het helpen?)

Belangrijk is dat we ons bewust worden van de manipulatie. Misschien is het juist door de uitwendigheid van de objectivatie van ons zelfbegrip dat we in staat zijn ons er toe te verhouden en tonen we aan niet op te gaan in deze vorm. De AI luidt het begin in van een nieuwe fase in de ontwikkeling van de mens : “De machine voorbij”, zoals de titel luidt van het proefschrift van Maarten Coolen over het zelfbegrip van de mens in het tijdperk van de informatietechniek. Het gevaar van AI zit in de mens die zich niet bewust is van het feit dat hij niet opgaat in de wijze waarop hij zich als vrije mens feitelijk als historisch wezen tot uitdrukking brengt in technologie en samenleving. Misschien dat we ons dan ook op een wat zinvoller manier tot onze geschiedenis gaan verhouden dan velen van ons nu lijken te doen.

Twitter en Facebook zijn verworvenheden van de technologie die ons de mogelijkheid bieden om ons als individu en als wereldburgers tot elkaar te verhouden. Dat is weliswaar geen persoonlijke verhouding, maar wel een verhouding die past bij de geglobaliseerde samenleving.

Good goan.

Published by

admin

Rieks op den Akker was onderzoeker en docent kunstmatige intelligentie, wiskunde en informatica aan de Universiteit Twente. Hij is gepensioneerd.

Leave a Reply