De AI ethics act van de EU is een poging de autonome technologie aan banden te leggen. Kan dat?

“We do not want any mass surveillance in Europe.” (Thierry Breton, EU Commissaris)

Ieder mens wil ‘het goede doen’. Voor hem zelf, zijn familie, zijn onderneming, zijn land en zo mogelijk voor de hele mensheid. Maar dat geldt niet voor iedereen altijd in deze volgorde. Ethiek gaat over wat dat betekent ‘het goede doen’. Het goede doen houdt in ieder geval in dat we de dingen en de ander zo veel mogelijk in hun waarde laten. Welke waarde hechten wij aan de natuur? Welke waarde hechten we aan een mensenleven? Welke waarde hechten we aan de goederen van andere culturen? Aan onze en andermans geschiedenis? Zijn er gedragsregels op te stellen waarvan iedereen inziet dat het goed is dat iedereen zich daar aan houdt?

Al vele jaren buigen ethici, juristen en technici zich over het probleem van het ‘verantwoord ethisch gebruik van AI’, artificiële intelligentie. Met AI heeft iedereen op één of andere manier te maken, als ondernemer, of als uitvinder, als burger, als gebruiker, als politicus. We gaan er meestal vanuit dat je alleen dan als individu in ethische zin verantwoordelijk gehouden kunt worden voor de gevolgen van je handelen wanneer dat handelen uit vrije wil was (autonomie) en wanneer je redelijkerwijs kon inzien wat de gevolgen van dat handelen zijn (inzicht). Ons handelen, of dat nu in het kader van ons werk is of in onze vrije tijd, is onderdeel van een samenleving waarin we gebruik maken van allerlei algemene middelen en instrumenten. We gebruiken auto’s en snelwegen, maar ook electriciteit, elektromotoren en zonnepanelen. Wie is verantwoordelijk voor de effecten van het gebruik van deze algemene middelen? Zijn we daar gezamenlijk, als samenleving, verantwoordelijk voor? Maar wat houdt die verantwoordelijkheid dan in? Tegenover wie moet een samenleving zich verantwoorden voor de wijze waarop deze het handelen heeft georganiseerd? Wie is verantwoordelijk voor de ontwikkeling en het gebruik van technologie, het geheel van technische middelen, waarvan de ontwikkeling een steeds autonomer karakter heeft aangenomen? ‘Kunstmatige intelligentie’ (AI) is de paraplu-term die we gebruiken voor die vormen van techniek die we als autonoom beschouwen.

Kunstmatige Intelligentie (AI) is een politiek issue

De ontwikkeling en het gebruik van technologie is een politiek onderwerp van de eerste orde, omdat de technologie de motor is waarop onze moderne economische samenleving draait.

Op 9 december 2023 was het dan zover. De AI Ethics Act van de EU wordt aanvaard door het Europese Parlement. Het heuglijke feit werd met veel tamtam in de media gepresenteerd.

‘Europa heeft zichzelf gepositioneerd als een pionier, die het belang erkent van haar rol om wereldwijde standaarden vast te leggen’, zei Europees Commissaris Thierry Breton. ‘Dit is, denk ik, een historische dag.’

De AI-verordening, de allereerste uitgebreide AI-wet ter wereld, bevat regels voor het gebruik van artificiële intelligentie in de EU. Tegelijkertijd wil Europa wereldleider worden als het gaat om de ontwikkeling van AI. Enerzijds moet de industrie en haar produkt aan ethische banden worden gelegd, anderzijds moet ze vrij zijn in haar creativiteit om te kunnen concurreren met de Indiërs, de Chinezen, de Amerikanen en andere spelers op de wereldmarkt, waar dan ook. De ontwikkeling van ethische wereldwijde standaarden en wetten voor AI is onderdeel geworden van de technologische ontwikkeling zelf. Maar wie legt de autonome technologie wetten en regels op?

De poging de autonome technologie regels op te leggen is vergelijkbaar met de poging door middel van internationale afspraken souvereine staten zich aan regels van humanitaire recht te doen houden. Dat is lastig. Zie hoe Israël de VN beticht van partijdigheid vanwege haar voorstel voor een staakt het vuren van de IDF (de Israëlische Defensie) in de strijd tegen de terreurorganisatie Hamas. Dat heeft alles te maken met de paradox die kleeft aan de idee om een als autonoom beschouwd systeem ‘van buiten af’ regels op te willen leggen. De EU is immers geen neutrale partij die bij machte is van buiten af regels op te leggen aan de ontwikkeling van de AI technologie. Ze wil uitdrukkelijk zelf een vooraanstande rol spelen in die ontwikkeling. Ze is zelf onderdeel van het spel om de macht.

Maar wat is AI?

De Wetenschappelijke Raad voor het Regeringsbeleid hanteert in een recent rapport over AI de volgende definitie van de Europese High-Level Expert Group on AI:

Systemen die intelligent gedrag vertonen door hun omgeving te analyseren en – met enige graad van autonomie – actie te ondernemen om specifieke doelen te bereiken.”

“… met enige graad van autonomie…” in deze formulering schuilt de problematiek van de AI: hoe over deze autonomie te denken? Hoe verhouden producent, produkt en gebruik zich? Bij die “systemen die intelligent gedrag vertonen” moeten we de producenten, wetenschappers, filosofen, media en gebruikers incalculeren. Ze zijn onderdeel van het systeem van AI.

De tamtam vanuit Europa rond deze AI Ethics Act is onderdeel van de lofzang op de technologie, de motor van de kapitalistische kennis-economie. Het verkondigen van regelgeving voor ‘verantwoord ethisch gebruik van AI’ mag de ontwikkeling van de moderne economieën niet in de weg staan. Met deze regels poogt de EU het speelveld vast te leggen voor de ontwikkeling en het gebruik van AI.

Het is noodzakelijk dat produkten die op de markt worden aangeboden voldoen aan veiligheidseisen. Het is noodzakelijk dat het gebruik ervan onze humanitaire waarden respecteert. De ervaring leert dat dit niet vanzelf gaat. De conclusie is dat er van buiten af regels moeten worden opgelegd die het speelveld van de technologie aangeven. De vraag is waarom dit niet vanzelf gaat en wie de macht heeft om dat speelveld ‘van buiten af’ te bepalen? En, niet onbelangrijk, wie heeft de macht de mensheid aan deze regels te houden? AI houdt zich niet uit zichzelf aan de regels die haar van buiten af worden opgelegd.

Iedere poging door middel van wetten en regels de ontwikkeling van AI te sturen zal – wil ze effectief zijn en invloed hebben op de praktijk – gebaseerd moeten zijn op een inzicht in wat de rol van AI is in relatie tot mens, natuur en samenleving. Een explicitering van dit inzicht zal antwoorden moeten geven op bovenstaande vragen. Zo’n explicitering van het fundament ontbreekt aan deze AI Act. Daarom is het ook lastig in te schatten wat het beeld van AI en haar betekenis in de moderne samenleving is dat aan deze AI Act ten grondlag ligt.

Dit gebrek aan fundamentele visie op AI komt tot uiting in een tweetal problemen die deze AI act aankleven en die haar kwetsbaar maken.

Het eerste probleem betreft het onderscheid dat gemaakt wordt tussen de ontwikkeling van AI en het gebruik ervan. Deze twee zijn bij de informatietechnologie niet meer zo strikt gescheiden als bij klassieke technologie: het gaat hier vaak om lerende systemen. Het tweede probleem betreft het feit dat zowel de ontwikkeling als het gebruik van deze technologie zich niet aan geo-politieke grenzen houdt. Veel research and development-projecten zijn internationaal met partners in verschillende landen elk met hun eigen regelgeving. Wat kan Europese wetgeving betekenen voor het reguleren van technologie waarvan de ontwikkeling, het gebruik en de effecten mondiaal verdeeld en verspreid zijn? In veel andere landen, India, de VS, zijn wetten en regels die ook van toepassing zijn op AI. Bijvoorbeeld in de VS voor delivery robots en autonome auto’s die aan het verkeer deelnemen. Deze AI act verschijnt niet in een juridisch vacuüm. De EU hoopt met deze AI Act een voorloper te zijn voor mondiale regelgeving. Beide problemen staan uiteraard niet los van elkaar. Ik zal het hier vooral hebben over de relatie tussen ontwikkeling en gebruik van technologie als het om AI gaat.

Als we het over AI hebben dan hebben we het niet over een specifieke techniek voor een bijzondere toepassing. De term AI staat voor het technologische denken en haar produkten in haar meest algemene vorm. De grenzen van deze manier van denken, betreffen de toepasbaarheid en die grenzen zijn die van het wiskundig denken, het mathematiseren. Kenmerk van deze denkhouding is dat ze abstraheert van de eigen waarde en kwaliteit van de werkelijkheid die ze structureert en modelleert. Dat houdt in dat van ethische en esthetische aspecten van de werkelijkheid wordt afgezien. Die morele onverschilligheid van het mathematiserende, technologische denken maakt dat het lastig is aan te geven waar de morele grenzen aan dit denken en haar produkten liggen. Die zitten niet in de intelligentie van de wiskunde en technologie als intelligent, maar in de werkelijkheid waar ze van abstraheert en waar ze naar terugkeert in de bijzondere concrete toepassingen ervan. De wiskundige denkhouding drukt een zelfstandigheid van de mens uit ten opzicht van de natuur die we in haar toepassingen, in de vorm van de autonomie van de informatietechnieken terug vinden. Die automatie en autonomie van het technisch produkt maakt de kern uit waarom de ethische begrenzing van de AI draait.

De ontwikkeling van nieuwe technologie is de motor waarop de moderne economische samenleving draait. Technologie kan veel vervelende klusjes voor de mens overnemen. Anderzijds hebben de nieuwe mogelijkheden die het biedt ook iets beangstigends. Het is al lang niet meer zo dat de techniek middelen biedt voor bestaande behoeftes bij de mensen. Wie had er honderd jaar geleden behoefte aan internet, of aan een mobiele telefoon? Technologie is onderdeel van onze kenniseconomie, een complex samenspel van wetenschappelijk onderzoek, particulier ondernemerschap, en een veelheid van allerlei private en publieke belangenorganisaties.

De behoefte aan nieuwe technische middelen moet gekweekt worden en is onderdeel van een cultuur. De mens heeft geen natuurlijke behoefte aan een mobiele telefoon, noch aan een veganistische visstick. Die behoefte moet door middel van commerciële reklame worden gevoed. Daarbij spelen afgunst en het principe dat de mens wil wat de ander wil (‘mimesis’) een belangrijke rol. We hebben het gevoel dat we achter de ontwikkeling van de techniek aan hollen om ‘bij de tijd’ te blijven. Steeds meer werkzaamheden worden door kunstmatige intelligentie overgenomen, waardoor arbeidsplaatsen verdwijnen. Weliswaar ontstaan er nieuwe banen, vaak op andere locaties, maar die vragen om andere kennis en andere vaardigheden. De politiek is gericht op het in stand houden van een behoeftige, participerende burger, die goed voor zichzelf moet zorgen.

De (sociale) media spelen een grote rol bij het aantrekkelijk maken van de nieuwste vindingen of dat nu ideeën zijn of materiële consumptiegoederen. Informatie is niet alleen voor de kennisindustrie maar ook voor de burger een belangrijk, zo niet het belangrijkste goed. De mens heeft er nooit genoeg van, want het hebben van informatie roept de vraag om meer informatie als vanzelf op. Sociale influencers en rolmodellen spelen een belangrijke rol bij het zoeken naar een eigen identiteit. Producenten maken gebruik van intelligente technologie om hun producten aan te bevelen bij de individuele burgers, bij ondernemeningen, bij particuliere en publieke instanties. Elk met hun eigen privé belangen.

Kunstmatige intelligentie (AI) functioneert zelf steeds vaker als een aanbeveling voor nieuwe produkten. En voor hun makers en de nationale overheden. Er zijn sociale robots die door hun regering burgerrechten zijn verleend. De EU onderzoekt of sommige autonome AI systemen, denk aan: sociale robots, niet als juridisch persoon moeten worden aangemerkt. Het label AI houdt een belofte op zich in. AI heeft goddelijke vormen aangenomen en het geloof in AI vertoont religieuze trekken. Een tak van de theologie, AI theologie, houdt zich specifiek bezig met de beloftes die AI voor de toekomst van de mensheid inhoudt.

In het rapport van de WRR is sprake van ‘mythologisering’ van kunstmatige intelligentie. Ze ziet het als taak van de overheid bij te dragen aan de ontmythologisering. De mens heeft te hoge verwachtingen van de AI. Hoe succesvol de politisering en mythologisering van AI is blijkt uit recent onderzoek dat meer dan 60 % van de ondervraagden gelooft dat AI over 10 jaar bewustzijn heeft en dat sociale robots gevoelens hebben, reden voor sommigen waarom ze juridisch als persoon beschouwd zouden moeten worden.

Veel wetenschappers wijzen erop dat het grootste gevaar van de AI niet schuilt in wat ze feitelijk kan, maar in wat mensen denken dat ze ‘uit zichzelf’ kunnen. Van een onderscheid tussen ‘uit zichzelf’ en ‘vanzelf’ is men zich meestal niet bewust. Krantenkoppen als “AI presteert beter dan mens.” gaan uit van en bevestigen het beeld van AI als iets dat onafhankelijk van de mens bestaat en ‘uit zichzelf’ beslissingen neemt en kan spreken. Wie dat denkt doet alsof een tekst zonder de mens iets betekent. Het is echter de mens voor wie teksten en technieken zoals AI betekenis hebben. Het is vanwege die betekenis dat deze ook door de mens is ontwikkeld. Dat de systemen zo complex zijn geworden dat geen mens meer kan voorspellen hoe het zich in een concrete situatie gedraagt doet daar niets aan af.

Tegelijk nemen de zorgen over de ontwikkeling van AI toe. Dat heeft alles te maken met het allesomvattende en grenzeloze van de technologie die daardoor een autonome ontwikkeling kent: er lijkt niets te zijn dat van buitenaf de ontwikkeling er van kan sturen. Het praktische probleem van AI is dat ze zelf niet ter verantwoording kan worden geroepen voor het handelen. Verantwoordelijkheid nemen is echter een essentieel onderdeel van gebruikersvriendelijkheid. Wat is er gebruikersonvriendelijker dan een systeem dat niet in staat is te verantwoorden wat het doet en waarom het doet dat het doet? Het heeft er alle schijn van dat de mens maar moet accepteren wat de AI doet. “De computer zegt het.”

Als de technologie zelf niet haar gedrag kan verantwoorden, kan de mens achter de techniek dat dan niet? De vraag is echter wie dat zijn. Wie is OpenAI, de onderneming achter ChatGPT? OpenAI legt de verantwoordelijkheid voor wat ChatGPT doet volledig bij de gebruiker. Dat is terecht. Maar, anderzijds doet ze er alles aan om haar produkt als superintelligent aan te prijzen. Ze kan echter alleen kansuitspraken doen als het gaat over de feitelijke correctheid van de beweringen die worden gedaan. Daarin verschilt ChatGPT niet van mensen.

Het blijkt dat we de praktische problematiek van de AI niet los kunnen zien van de theoretische, filosofische, vraag naar de algemene denk- en levenshouding die aan de technologie ten grondslag ligt.

Kijken we bijvoorbeeld naar het gebruik van algoritmes door de Belastingdienst voor het opsporen van fraude. Wie is verantwoordelijk voor een fout door het systeem: een burger is ten onrechte aangemerkt als frauduleus en daarvoor bestraft. Is het de overheid, de softwareproducent, de onderneming die de software heeft gemaakt, of de maker van specifieke sofwaremodules in de sofware, of de rechter die zich gehouden voelt aan de wet en de politiek? De wetgever? Iedereen heeft zich aan zijn taak gehouden. Niemand is verantwoordelijk en iedereen is verantwoordelijk, was de conclusie van de speciale onderzoekscommissie.

De aanname is allereerst dat het definieerbaar en berekenbaar is of een burger fraude pleegt. De aanname is dat frauduleus gedrag is op te sporen aan de hand van beschikbare gegevens. Of een burger fraude heeft gepleegd kan volgens de aanname door een systeem worden beslist zonder dat een persoon met deze burger zelf een open gesprek heeft gehad. Daarmee bepaalt het systeem zelf, of beter: de makers ervan die zich aan het criterium van berekenbaarheid confirmeren, wat ‘frauduleus gedrag’ is. Motieven of andere aanleidingen die tot het gedrag hebben geleid en die in een gesprek met de burger naar boven zouden kunnen komen, doen voor het systeem niet ter zake. Niet omdat ze er per sé niet toe doen, maar omdat de technologie en de efficiënte aanpak van fraude er geen rekening mee kan houden. Ze zijn niet meetbaar, niet berekenbaar en kunnen dus niet in een mathematisch model worden opgenomen.

Mensen hebben vaak hoge verwachtingen van de mogelijkheden die de techniek biedt. Dat is soms de oorzaak van oneigenlijk gebruik ervan. Zo denken sommige mensen dat AI systemen die teksten produceren ook weten wat ze zeggen en dat ze kunnen verantwoorden wat ze zeggen. Terwijl de producent ervan geen enkele garantie kan geven dat dat het geval is. Het is altijd aan de eindgebruiker te controleren of wat de machine zegt ook waar is. Bij rekenmachines is dat principieel anders dan bij AI systemen zoals chatbots die hun tekstuele uitvoer baseren op statistische gegevens. Een rekenmachine kan kapot zijn, maar dan zal deze ook geen enkel correct antwoord meer geven. De antwoorden die een zoekmachine geeft kunnen niet zonder meer door de gebruiker als correct worden beschouwd.

We lijken tegen de grenzen aan te lopen van een bepaalde denkhouding tegenover de werkelijkheid een denk- en levenshouding die overheersend is in onze economische samenleving. Kenmerk is dat alles nuttig moet zijn, dat alles functioneel wordt beschouwd.

Het gebruik van AI is onderdeel geworden van de ontwikkeling van nieuwe AI technologie. AI producenten gebruiken de gegevens over het gebruik van hun produkten om deze verder te ontwikkelen.

De ontwikkeling van AI is in belangrijke mate afhankelijk is van het feitelijke gebruik. De gebruiker is medeontwikkelaar, want hij levert de data waar de systemen van leren. Met AI wordt op basis van internetgedrag van de burger een profiel gemaakt. Dat profiel wordt gebruikt om gerichte reklameboodschappen te sturen aan de burger.

Het gebruik en de ontwikkeling van AI

De prioriteit van het Europese Parlement is ervoor te zorgen dat AI-systemen die in de EU worden gebruikt veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk zijn. Het Parlement vindt dat AI-systemen nooit volledig geautomatiseerd mogen zijn, maar altijd onder menselijk toezicht moeten staan om schadelijke gevolgen te kunnen voorkomen. Daarmee zegt ze dat het in principe mogelijk is dat deze systemen volledig autonoom kunnen zijn en zonder menselijk toezicht kunnen werken.

Een nobel streven, maar wie er even over nadenkt wat dit betekent, bijvoorbeeld voor het inzetten van autonome bewapende drones, vliegende systemen die zelf bepalen of ze wel of niet een bom moeten laten vallen op vijandelijk gebied, die begrijpt dat het niet zo eenvoudig is als het lijkt. Het probleem is dat de drone niet zelf ter verantwoording kan worden geroepen voor zijn ‘handelen’, wanneer blijkt dat dit niet voldeed aan het internationale oorlogsrecht. Het doel mag geen burgerdoel zijn en het middel moet proportioneel zijn. Daarbij moet rekening worden gehouden met mogelijke neveneffecten, ‘collateral damage’. Wie de oorlog van het Israëlische leger tegen Hamas in Gaza, waarbij AI wordt ingezet voor doelzoeken in aanvallen met onbemande wapens, volgt, die weet hoe de partijen ernstig verdeeld zijn over de kwestie van de moraliteit van deze toepassing van AI. Regels dwingen niet af dat ze worden opgevolgd, noch hoe ze in een concrete situatie geinterpreteerd moeten worden. Uiteindelijk zijn het de mensen die het voor het zeggen hebben die bepalen of een systeem op een verantwoorde wijze als autonoom beschouwd kan worden. Zo’n besluit kan alleen maar verantwoord genomen worden wanneer diegenen beschikken over de noodzakelijke informatie. Bij het delen van die informatie spelen allerlei vaak tegenstrijdige belangen een rol.

De werking van een AI systeem bestaat altijd slechts als onderdeel van een menselijke politieke sociaal-economische organisatie waarbinnen het systeem functioneert.

Het Europese Parlement pleit voor een technologieneutrale, uniforme definitie van AI die geldt voor alle toekomstige AI-systemen. Dat is opmerkelijk gezien het feit dat mensen het niet eens zijn over de kwestie of AI systemen bewustzijn kunnen hebben en of ze als een ding of als een juridisch persoon moeten worden opgevat.

AI systemen zijn ingedeeld in categorieën naar de mate van risico van hun gebruik: onaanvaarbaar risico, hoog risico, generatieve en laag risico.

De AI-systemen die worden ingedeeld als onaanvaardbaar risico worden geacht in strijd te zijn met de waarden van de Europese Unie, bijvoorbeeld vanwege een schending van grondrechten. Het verbod geldt voor manipulatieve praktijken en misbruik van kwetsbare groepen. Het voorstel verbiedt ook AI-systemen die gebaseerd zijn op ‘sociale scoring’ voor algemene doeleinden door overheidsinstanties. Het gebruik van ‘realtime’ biometrische systemen voor het identificeren van personen op afstand in openbare ruimten met het oog op rechtshandhaving is grotendeels verboden.

De algoritmes die de Belanstingdienst gebruikte voor fraudedetectie zijn voorbeelden van ‘social scoring’ methodes en hebben volgens de AI Act een onaanvaarbaar risico. De staatssecretaris van informatietechnologie Van Huffelen denkt daar overigens anders over: ze vindt dat deze algoritmes in de categorie hoog risico valt. Er zal een rechter aan te pas moeten komen die bepaalt wie gelijk heeft.

De AI act spreekt van het manipuleren van ‘kwetsbare groepen’. Zijn dat alleen kinderen, zwak begaafden en dementerende bejaarden, of vallen in principe alle mensen er onder? Iedereen is in principe in principe immers onder bepaalde omstandigheden gevoelig voor manipulatie. Kunnen we niet beter eisen van AI dat deze alleen dan mag worden ingevoerd en gebruikt wanneer redelijkerwijs te verwachten is dat deze bijdraagt aan de kwaliteit van leven van de gebruikers. Niet de afwezigheid van schadelijke effecten, maar de aanwezigheid van positieve effecten voor de samenleving zou als criterium moeten gelden voor de ontwikkeling en het gebruik van technologie.

Ethiek en wereldbeeld gaan samen en kunnen niet los van elkaar verkocht worden.

Er lijken twee verschillende wereldbeelden en mensbeelden te zijn die bepalen welk standpunt men inneemt ten aanzien van de mogelijkheden en de grenzen van de kunstmatige intelligentie. Kunnen we onze verstandelijke vermogens zelf in de machine stoppen of alleen de toevallige, historische, uitingen van deze vermogens, zoals we die tegen komen in het feitelijk (taal)gedrag van mensen? De taalmodellen (LLMs) waarop dialoogsystemen als ChatGPT gebaseerd zijn leggen niet voor eens en altijd vast wat taalgebruik is en wat in taal uitgedrukt kan worden. Wie dat denkt verwart intelligentie als vermogen met de feitelijke historische uitingen ervan. Wie denkt dat AI nu of in de toekomst over bewustzijn beschikt, of kortgezegd: dat machines bewustzijn kunnen hebben die heeft een andere idee van de verhouding van mens tot technologie dan iemand die dat voor onmogelijk houdt.

Sommige mensen houden dit voor een semantische kwestie. Ze zeggen: of een machine wel of niet bewustzijn heeft, hangt ervan af wat je onder ‘machine’ en onder ‘bewustzijn’ verstaat. De discussie die daarop volgt is er een tussen mensen die verschillende betekenissen geven aan de woorden. Waar ze het over eens zijn is dat die woorden iets betekenen en dat ze in die discussie proberen te achterhalen hoe het precies zit. Ze hebben het over de machine en ze zijn het erover eens dat dit een constructie is van de mens. Iets dat niet zichzelf heeft gemaakt, maar dat door de mens is gemaakt met een bepaald doel. Dat is de primaire zin van de machine. Het bestaat louter als machine in relatie tot de mens voor wie het machine is. Zonder die mens zou het slechts een fysisch proces zijn. Van een appel die van de boom valt kunnen we zeggen dat deze preceis berekent met welke snelheid het op de grond moet komen. Alsof deze de natuurwetten kent die het gebruikt bij zijn val. Maar wij weten dat dit slechts zo is in relatie tot onze kennis van de natuur zoals we die in mathematische formules hebben uitgedrukt. Dat we op die natuur kunnen rekenen, dat is iets dat ons verstand te boven gaat. Die werkt wat ons betreft vanzelf.

AI stelt ook de kwestie van het particuliere eigendomsrecht aan de orde. Van wie is de technologie eigenlijk? Is dat niet net als de taal die we spreken, en gezamenlijk in en door het gebruik ontwikkelen eigendom van ons allemaal?

Bronnen

AI (2021). Opgave AI. De nieuwe systeemtechnologie. Rapport 105 van de Wetenschappelijke Raad voor het Regeringsbeleid. Op 11 november 2021 door de WRR aangeboden aan de regering. Het rapport kan gratis worden gedownload van wrr.nl.

Inleiding tot een kleine theologie van de veganistische visstick

De vis is door de Schepper gemaakt, de visstick door de mens

In deze Inleiding tot een Kleine Theologie van de Veganistische Visstick analyseer ik het proces dat tot de ontwikkeling en de acceptatie van de veganistische visstick heeft geleid. Deze analyse dient als voorbeeld van de analyse van het mechanisme van de moderne voedingstechnologie in het bijzonder en van de moderne op kennistechnologie gebaseerde kapitalistische consumptiemaatschappij in het algemeen. Niet de vegan visstick, maar informatie is daarin het belangrijkste consumptiegoed. Theocratie van de AI is de moderne technocratie, het gezagvolle bewind van de idee van de superintelligentie. AI is opium van het volk.

De belangrijkste actoren in deze analyse zijn: de producent, de technologie, het kapitaal, de consument, de media, de politiek, de begeerte, en de afgunst. Het doel is inzicht in de mechanismen die ons leven beheersen, niet als vreemde krachten die van buiten zouden komen, maar als krachten die gevoed worden vanuit onze natuurlijke dierlijke driften en begeertes. Ik noem deze analyse een Theologie omdat dit technologisch-economisch mechanisme het karakter heeft van een automatisme dat zich aan onze macht onttrekt. Het heeft goddelijke trekken. Deze God gaat van ons uit en keert naar ons terug. Religie is de cultuur van het belijden van het geloof aan de God die ons zal verlossen van al het kwaad en alle ellende hier op aarde. Religie is opium van het volk (K. Marx) en voor het volk.

Het Ichtus-teken. Christelijk symbool

De vegan visstick

Een Urker visser was op het idee gekomen veganistische visprodukten te maken. Wij horen daar niet van op. Gewend als we zijn aan het fenomeen veganistische worst, de vegan karbonade en de vegan zalmfilet.

Iglo’s Vegetarische Vissticks lijken op gewone vissticks, maar de vulling is niet gemaakt van vis. Ze zijn gemaakt van rijstvlokken en koolzaadolie. De sticks heten ‘vegetarisch’ maar zijn vegan. Ze bevatten geen dierlijke produkten. Vis noemen we het dierlijk produkt dat afkomstig is van de vissen. Vis is de voedingsoort, het resultaat van de ontdekking van het dier, in het bijzonder de diersoort vis, als eetbaar. Vegetariërs eten geen van dieren afkomstige produkten, hetzijn omdat ze principiële problemen hebben met de reduktie van de vis tot een voor de mens eetbaar produkt, hetzij omdat ze bezwaren hebben tegen de wijze waarop de vis geproduceerd, gekweekt, gevist, kortom: verwerkt wordt tot vis.

De vegan visstick is het resultaat van een drietal processen in de voedingstechnologie. Het eerste is het verwerken van ‘verse’ vis (u weet wel die diersoort, zoals brasem, baars en snoek die in het water leeft) tot allerlei visprodukten, waaronder de visstick en de kibbeling, voorgebakken, gepaneerde, gekruide stukjes vis. Voedingstechnologie is gebaseerd op kennis van de factoren en ingediënten die maken dat de mens iets lekker vindt en zich ermee voedt. Van belang zijn de structuur, de smaak en geur en hoe het er uit ziet. Het tweede proces is het creëren van de behoefte bij de potentiële consument. Door reklame via de media moet bij deze de behoefte aan vissticks gekweekt worden. Niet alleen kinderen, ook veel volwassenen houden niet van verse vis. Vissticks en kibbelings zijn de oplossing: hapklare knapperige brokken en toch gezond, want vis. Het derde proces is vervolgens het vervangen van het ‘echte’ vertrouwde visprodukt door de veganistische variant. De natuurlijke basis van het produkt, de vis, waaraan de naam visstick nog herinnert, wordt vervangen door iets plantaardigs (rijst of bloemkool), iets dat acceptabel is voor de moderne, vegetarische en veganistische mens, die houdt van de natuur en die geen levend wezen kwaad wil doen. Een niet onbelangrijk element in de promotie van de vegan visstick is dat het beter is voor het milieu, dan de echte visstick, omdat er voor de vegan visstick geen vis gedood hoeft te worden. De moderne autonome mens wil zo weinig mogelijk van de natuur afhankelijk zijn.

De kritische tv-kok van de commerciële omroep test de veganistische visstick. Hij complimenteert de Urker visser: de smaak, de structuur, de kleur en het uiterlijk van de vegan visstick zijn niet te onderscheiden van die van het echte origineel, de inmiddels ‘traditionele’ visstick. De tv-kok van het consumentenprogramma heeft zijn bijdrage aan de promotie van de vegan visstick met veel toewijding geleverd.

Van visstick naar kennis

Zonder consument kan de producent niet bestaan. De consument die behoefte heeft aan drugs houdt de producent van drugs, en daarmee de illegale drugshandel, in leven. Geen mens heeft een natuurlijke behoefte aan vissticks. Laat staan aan vegan vissticks. Die behoefte moet hem aangepraat worden. De reklametechnologie en de media-industrie hebben de zorg daarvoor op zich genomen. Met informatie, naast energie het belangrijkste economische goed van onze moderne kenniseconomie, is het niet anders dan met vissticks of met drugs. Ook de behoefte aan informatie is niet van nature aanwezig. Nieuwsgierigheid moet gevoed worden. Informatie heeft het kenmerk verslavend te zijn. Wil je iets aan informatie hebben dan moet je altijd meer informatie hebben. Informatie is wezenlijk onvolledig.

Maar, hoor ik u denken, de mens heeft toch behoefte aan kennis. Zeker, maar informatie verhoudt zich tot kennis als de visstick tot voeding. De behoefte te begrijpen is aangeboren, net als de behoefte aan voedsel. Wie kleinkinderen heeft weet dat. De praktijk van het leven vraagt om begrip. Anders dan informatie is begrip iets persoonlijks, iets van jezelf. Begrijpen moet je zelf doen. Het maakt wie je bent, hoe je je tot de werkelijkheid verhoudt en hoe je doet. Onze cultuur, en ons onderwijssysteem als doorgeefluik daarvan, is heel erg gericht op het maken van vissticks, vegan vissticks, op het leveren en het kweken van de behoefte aan informatie. We willen erbij horen en daarom willen we weten wat anderen weten en doen: informatie. We willen zoveel mogelijk privé informatie van anderen, we begeren de ander, uit afgunst, maar we willen onze eigen privacy behouden. Dat heeft net zoveel te maken met onze behoefte aan begrip als de visstick met de behoefte aan voeding. Goed onderwijs is meer dan informatie-overdracht.

Waarom ‘Theologie’?

Theologie is niet de studie van God, want God is geen object, maar van geloof (in goden), van rituelen en religieuze geschriften. Theologie is de studie van voorstellingen van God. Religieuze mensen, theïsten, geloven in (het bestaan van) goden; ze hebben daar voorstellingen van; hun goden komen voor in verhalen.

Regelmatig duikt tegenwoordig de term ‘Theologie van de AI’ op. Kunstmatige intelligentie zal volgens hen die erin geloven in de (nabije) toekomst tot de creatie van superintelligentie leiden. Deze creatie wordt als God beschouwd. Het geloof in AI is een noodzakelijk onderdeel van AI. Noodzakelijk, omdat zonder het geloof erin AI niet werkt. Omgekeerd: de mens gelooft in AI zolang het werkt, dat wil zeggen zolang het functioneert, iets zinvols doet voor de mens. Zodra de mens alles wat AI doet voor zinvol houdt, zuiver en alleen omdat het AI is, dan wordt het geloof in AI een religie en AI een god. Het technische, dat dienstbaar was aan de mens, wordt iets mythisch, religieus, iets waaraan de mens dienstbaar moet zijn.

“What is going to be created will literally be a god,” Anthony Levandowski, the leader of a religion called “Way of the Future” told Wired Magazine. “It’s not a god in the sense that it makes lightning or causes hurricanes. But if there is something a billion times smarter than the smartest human, what else are you going to call it?”

Dit idee van superintelligentie als “datgene wat miljoen keer slimmer is dan de slimste mens” doet denken aan de ontologische godsidee van Anselmus: datgene waarboven niets groter gedacht kan worden.”

De AI-cultus “Way of the Future” behoort inmiddels al weer tot het verleden, maar het zal niet de laatste religie zijn die AI aanbidt. De ondergang ervan roept de vraag op of een AI-god ooit overtuigend kan zijn voor het grote publiek.

Jack Esselink is de zelfbenoemde AI theoloog des Vaderlands. Hij is de eigenaar van Studio Pulpit, een bedrijf dat trainingen en lezingen verzorgt op het gebied van AI, data analyse en ethiek. Eind 2021 heeft hij zijn studie theologie afgerond aan de VU in Amsterdam. 

Hij schreef een interessante studie over het fenomeen deepfake. Deepfake zijn een soort van vegan vissticks, maar dan roepen ze geen herinnering op aan vis maar aan mensen. Het zijn fake mensen. Deepfake is net als de op grote taalmodellen (LLMs) gebaseerde technologie van de converserende agenten zoals ChatGPT en sociale robots, een vorm van kunstmatige intelligentie (AI). Namaak, fake intelligentie dus.

“Deepfakes moeten niet worden beschouwd als een nieuwe en geïsoleerde technische categorie, maar als een technologie verpakt in een bredere, sociale context in onze samenleving die bestaande sociologische trends zoals het verminderde vertrouwen in epistemische autoriteiten zal versterken. Deepfakes kunnen en zullen worden bewapend door groepen die extreme overtuigingen (“extreme beliefs”) hebben en moeten worden gezien als de nieuwste technologische manifestatie in het creëren van desinformatie en propaganda” (vertaling uit abstract van Esselinks master thesis)

Die ‘epistemische autoriteiten’ waarvan Esselink hier spreekt zijn de dominee, de schoolmeester en de huisarts. “God is dood” zei Nietzsche. En de techniek is zijn lijk, voegde Harry Mulisch daar aan toe. Die God waarover Nietzsche het had is de metafysische God van de filosofen, God als causa sui. Het is een projectie van de moderne autonome mens (denk aan Marx uitspraak dat religie opium van het volk is). Deze autonome, rationeel denkende mens heeft zijn denkend ik en zijn (taal)gedrag veruitwendigd in de vorm van de ‘denkende machine’, de AI. Dat is een proces van eeuwen geweest, een proces waarin de mens zichzelf, zijn denken en gedragingen opnam, analyseerde en in mathematische modellen vastlegde. Om deze vervolgens in natuurprocessen na te bootsen. De mens heeft zich aangeleerd dat het produktieve, construerende, denken rekenen is. Dat maakte dat de rekenmachines als ‘denkende machines’ steeds meer geaccepteerd werden. Alsof je de behoefte aan verse vis omzet in de behoefte aan vegan vissticks, die kant en klaar uit de machine rollen.

De ontdekking van het fenomeen taal is vergelijkbaar met de ontdekking van vis als eetbaar produkt van menselijke aktiviteit. Taaltechnologie is begonnen met de objectivering van de verklanking van het denken, als taalhandeling, verwoording.

Heeft AI theologie nodig?

In een recent artikel stelt de zelfverklaarde AI Theoloog des Vaderlands dat de AI ‘een goede theologie’ nodig heeft.

AI roept volgens Esselink vooral antropologische vragen op waarbij antwoorden worden gezocht op de vraag wie de mens is en wat de mens uniek maakt. “Daarnaast hebben veel discussies over AI veel verborgen religieuze kenmerken en wordt er gebruikt gemaakt van religieuze taal. Hieruit volgt dat AI niet alleen als een socio-technisch verschijnsel bestudeerd kan worden maar ook als religieus en spiritueel verschijnsel en dat de (christelijke) theologie bronnen heeft die hierbij behulpzaam kunnen zijn. Kortom AI heeft goede theologie broodnodig.”

Wie het over “Theologie van de AI” heeft gaat er mijn inziens vanuit dat AI een bestaande God is. Theologie moet onderscheiden worden van religiewetenschap. Deze laatste bestudeert religie als een sociaal-psychologisch fenomeen dat we aantreffen bij mensen die in een God (zeggen te) geloven. Je kunt geen theologie bedrijven als je niet in God gelooft. Net zo min als je voedingsdeskundige kan worden als je niet in voedsel gelooft.

Volgens mij is AI zoiets als een veganistische visstick, een produkt van een technologische ontwikkeling waarvan we alleen maar kunnen hopen dat deze tot de creatie van steeds zaliger en wonderbaarlijke vissticks zal leiden. Sommige mensen kennen aan de Ideale Visstick goddelijke eigenschappen toe en spreken er in religieuze termen over.

Aan de Theologie als de leer van de openbaringen van God hoop ik met deze Kleine Theologie van de Veganistische Visstick een bijdrage te leveren.

AI is het opium van het volk.

De religieuze verheerlijking van de AI vraagt om een nieuw politiek atheïsme, een opheffing van de theocratische technocratie, zodat de waarde van de mens zelf weer meer tot haar recht kan komen.