De AI ethics act van de EU is een poging de autonome technologie aan banden te leggen. Kan dat?

“We do not want any mass surveillance in Europe.” (Thierry Breton, EU Commissaris)

Ieder mens wil ‘het goede doen’. Voor hem zelf, zijn familie, zijn onderneming, zijn land en zo mogelijk voor de hele mensheid. Maar dat geldt niet voor iedereen altijd in deze volgorde. Ethiek gaat over wat dat betekent ‘het goede doen’. Het goede doen houdt in ieder geval in dat we de dingen en de ander zo veel mogelijk in hun waarde laten. Welke waarde hechten wij aan de natuur? Welke waarde hechten we aan een mensenleven? Welke waarde hechten we aan de goederen van andere culturen? Aan onze en andermans geschiedenis? Zijn er gedragsregels op te stellen waarvan iedereen inziet dat het goed is dat iedereen zich daar aan houdt?

Al vele jaren buigen ethici, juristen en technici zich over het probleem van het ‘verantwoord ethisch gebruik van AI’, artificiële intelligentie. Met AI heeft iedereen op één of andere manier te maken, als ondernemer, of als uitvinder, als burger, als gebruiker, als politicus. We gaan er meestal vanuit dat je alleen dan als individu in ethische zin verantwoordelijk gehouden kunt worden voor de gevolgen van je handelen wanneer dat handelen uit vrije wil was (autonomie) en wanneer je redelijkerwijs kon inzien wat de gevolgen van dat handelen zijn (inzicht). Ons handelen, of dat nu in het kader van ons werk is of in onze vrije tijd, is onderdeel van een samenleving waarin we gebruik maken van allerlei algemene middelen en instrumenten. We gebruiken auto’s en snelwegen, maar ook electriciteit, elektromotoren en zonnepanelen. Wie is verantwoordelijk voor de effecten van het gebruik van deze algemene middelen? Zijn we daar gezamenlijk, als samenleving, verantwoordelijk voor? Maar wat houdt die verantwoordelijkheid dan in? Tegenover wie moet een samenleving zich verantwoorden voor de wijze waarop deze het handelen heeft georganiseerd? Wie is verantwoordelijk voor de ontwikkeling en het gebruik van technologie, het geheel van technische middelen, waarvan de ontwikkeling een steeds autonomer karakter heeft aangenomen? ‘Kunstmatige intelligentie’ (AI) is de paraplu-term die we gebruiken voor die vormen van techniek die we als autonoom beschouwen.

Kunstmatige Intelligentie (AI) is een politiek issue

De ontwikkeling en het gebruik van technologie is een politiek onderwerp van de eerste orde, omdat de technologie de motor is waarop onze moderne economische samenleving draait.

Op 9 december 2023 was het dan zover. De AI Ethics Act van de EU wordt aanvaard door het Europese Parlement. Het heuglijke feit werd met veel tamtam in de media gepresenteerd.

‘Europa heeft zichzelf gepositioneerd als een pionier, die het belang erkent van haar rol om wereldwijde standaarden vast te leggen’, zei Europees Commissaris Thierry Breton. ‘Dit is, denk ik, een historische dag.’

De AI-verordening, de allereerste uitgebreide AI-wet ter wereld, bevat regels voor het gebruik van artificiële intelligentie in de EU. Tegelijkertijd wil Europa wereldleider worden als het gaat om de ontwikkeling van AI. Enerzijds moet de industrie en haar produkt aan ethische banden worden gelegd, anderzijds moet ze vrij zijn in haar creativiteit om te kunnen concurreren met de Indiërs, de Chinezen, de Amerikanen en andere spelers op de wereldmarkt, waar dan ook. De ontwikkeling van ethische wereldwijde standaarden en wetten voor AI is onderdeel geworden van de technologische ontwikkeling zelf. Maar wie legt de autonome technologie wetten en regels op?

De poging de autonome technologie regels op te leggen is vergelijkbaar met de poging door middel van internationale afspraken souvereine staten zich aan regels van humanitaire recht te doen houden. Dat is lastig. Zie hoe Israël de VN beticht van partijdigheid vanwege haar voorstel voor een staakt het vuren van de IDF (de Israëlische Defensie) in de strijd tegen de terreurorganisatie Hamas. Dat heeft alles te maken met de paradox die kleeft aan de idee om een als autonoom beschouwd systeem ‘van buiten af’ regels op te willen leggen. De EU is immers geen neutrale partij die bij machte is van buiten af regels op te leggen aan de ontwikkeling van de AI technologie. Ze wil uitdrukkelijk zelf een vooraanstande rol spelen in die ontwikkeling. Ze is zelf onderdeel van het spel om de macht.

Maar wat is AI?

De Wetenschappelijke Raad voor het Regeringsbeleid hanteert in een recent rapport over AI de volgende definitie van de Europese High-Level Expert Group on AI:

Systemen die intelligent gedrag vertonen door hun omgeving te analyseren en – met enige graad van autonomie – actie te ondernemen om specifieke doelen te bereiken.”

“… met enige graad van autonomie…” in deze formulering schuilt de problematiek van de AI: hoe over deze autonomie te denken? Hoe verhouden producent, produkt en gebruik zich? Bij die “systemen die intelligent gedrag vertonen” moeten we de producenten, wetenschappers, filosofen, media en gebruikers incalculeren. Ze zijn onderdeel van het systeem van AI.

De tamtam vanuit Europa rond deze AI Ethics Act is onderdeel van de lofzang op de technologie, de motor van de kapitalistische kennis-economie. Het verkondigen van regelgeving voor ‘verantwoord ethisch gebruik van AI’ mag de ontwikkeling van de moderne economieën niet in de weg staan. Met deze regels poogt de EU het speelveld vast te leggen voor de ontwikkeling en het gebruik van AI.

Het is noodzakelijk dat produkten die op de markt worden aangeboden voldoen aan veiligheidseisen. Het is noodzakelijk dat het gebruik ervan onze humanitaire waarden respecteert. De ervaring leert dat dit niet vanzelf gaat. De conclusie is dat er van buiten af regels moeten worden opgelegd die het speelveld van de technologie aangeven. De vraag is waarom dit niet vanzelf gaat en wie de macht heeft om dat speelveld ‘van buiten af’ te bepalen? En, niet onbelangrijk, wie heeft de macht de mensheid aan deze regels te houden? AI houdt zich niet uit zichzelf aan de regels die haar van buiten af worden opgelegd.

Iedere poging door middel van wetten en regels de ontwikkeling van AI te sturen zal – wil ze effectief zijn en invloed hebben op de praktijk – gebaseerd moeten zijn op een inzicht in wat de rol van AI is in relatie tot mens, natuur en samenleving. Een explicitering van dit inzicht zal antwoorden moeten geven op bovenstaande vragen. Zo’n explicitering van het fundament ontbreekt aan deze AI Act. Daarom is het ook lastig in te schatten wat het beeld van AI en haar betekenis in de moderne samenleving is dat aan deze AI Act ten grondlag ligt.

Dit gebrek aan fundamentele visie op AI komt tot uiting in een tweetal problemen die deze AI act aankleven en die haar kwetsbaar maken.

Het eerste probleem betreft het onderscheid dat gemaakt wordt tussen de ontwikkeling van AI en het gebruik ervan. Deze twee zijn bij de informatietechnologie niet meer zo strikt gescheiden als bij klassieke technologie: het gaat hier vaak om lerende systemen. Het tweede probleem betreft het feit dat zowel de ontwikkeling als het gebruik van deze technologie zich niet aan geo-politieke grenzen houdt. Veel research and development-projecten zijn internationaal met partners in verschillende landen elk met hun eigen regelgeving. Wat kan Europese wetgeving betekenen voor het reguleren van technologie waarvan de ontwikkeling, het gebruik en de effecten mondiaal verdeeld en verspreid zijn? In veel andere landen, India, de VS, zijn wetten en regels die ook van toepassing zijn op AI. Bijvoorbeeld in de VS voor delivery robots en autonome auto’s die aan het verkeer deelnemen. Deze AI act verschijnt niet in een juridisch vacuüm. De EU hoopt met deze AI Act een voorloper te zijn voor mondiale regelgeving. Beide problemen staan uiteraard niet los van elkaar. Ik zal het hier vooral hebben over de relatie tussen ontwikkeling en gebruik van technologie als het om AI gaat.

Als we het over AI hebben dan hebben we het niet over een specifieke techniek voor een bijzondere toepassing. De term AI staat voor het technologische denken en haar produkten in haar meest algemene vorm. De grenzen van deze manier van denken, betreffen de toepasbaarheid en die grenzen zijn die van het wiskundig denken, het mathematiseren. Kenmerk van deze denkhouding is dat ze abstraheert van de eigen waarde en kwaliteit van de werkelijkheid die ze structureert en modelleert. Dat houdt in dat van ethische en esthetische aspecten van de werkelijkheid wordt afgezien. Die morele onverschilligheid van het mathematiserende, technologische denken maakt dat het lastig is aan te geven waar de morele grenzen aan dit denken en haar produkten liggen. Die zitten niet in de intelligentie van de wiskunde en technologie als intelligent, maar in de werkelijkheid waar ze van abstraheert en waar ze naar terugkeert in de bijzondere concrete toepassingen ervan. De wiskundige denkhouding drukt een zelfstandigheid van de mens uit ten opzicht van de natuur die we in haar toepassingen, in de vorm van de autonomie van de informatietechnieken terug vinden. Die automatie en autonomie van het technisch produkt maakt de kern uit waarom de ethische begrenzing van de AI draait.

De ontwikkeling van nieuwe technologie is de motor waarop de moderne economische samenleving draait. Technologie kan veel vervelende klusjes voor de mens overnemen. Anderzijds hebben de nieuwe mogelijkheden die het biedt ook iets beangstigends. Het is al lang niet meer zo dat de techniek middelen biedt voor bestaande behoeftes bij de mensen. Wie had er honderd jaar geleden behoefte aan internet, of aan een mobiele telefoon? Technologie is onderdeel van onze kenniseconomie, een complex samenspel van wetenschappelijk onderzoek, particulier ondernemerschap, en een veelheid van allerlei private en publieke belangenorganisaties.

De behoefte aan nieuwe technische middelen moet gekweekt worden en is onderdeel van een cultuur. De mens heeft geen natuurlijke behoefte aan een mobiele telefoon, noch aan een veganistische visstick. Die behoefte moet door middel van commerciële reklame worden gevoed. Daarbij spelen afgunst en het principe dat de mens wil wat de ander wil (‘mimesis’) een belangrijke rol. We hebben het gevoel dat we achter de ontwikkeling van de techniek aan hollen om ‘bij de tijd’ te blijven. Steeds meer werkzaamheden worden door kunstmatige intelligentie overgenomen, waardoor arbeidsplaatsen verdwijnen. Weliswaar ontstaan er nieuwe banen, vaak op andere locaties, maar die vragen om andere kennis en andere vaardigheden. De politiek is gericht op het in stand houden van een behoeftige, participerende burger, die goed voor zichzelf moet zorgen.

De (sociale) media spelen een grote rol bij het aantrekkelijk maken van de nieuwste vindingen of dat nu ideeën zijn of materiële consumptiegoederen. Informatie is niet alleen voor de kennisindustrie maar ook voor de burger een belangrijk, zo niet het belangrijkste goed. De mens heeft er nooit genoeg van, want het hebben van informatie roept de vraag om meer informatie als vanzelf op. Sociale influencers en rolmodellen spelen een belangrijke rol bij het zoeken naar een eigen identiteit. Producenten maken gebruik van intelligente technologie om hun producten aan te bevelen bij de individuele burgers, bij ondernemeningen, bij particuliere en publieke instanties. Elk met hun eigen privé belangen.

Kunstmatige intelligentie (AI) functioneert zelf steeds vaker als een aanbeveling voor nieuwe produkten. En voor hun makers en de nationale overheden. Er zijn sociale robots die door hun regering burgerrechten zijn verleend. De EU onderzoekt of sommige autonome AI systemen, denk aan: sociale robots, niet als juridisch persoon moeten worden aangemerkt. Het label AI houdt een belofte op zich in. AI heeft goddelijke vormen aangenomen en het geloof in AI vertoont religieuze trekken. Een tak van de theologie, AI theologie, houdt zich specifiek bezig met de beloftes die AI voor de toekomst van de mensheid inhoudt.

In het rapport van de WRR is sprake van ‘mythologisering’ van kunstmatige intelligentie. Ze ziet het als taak van de overheid bij te dragen aan de ontmythologisering. De mens heeft te hoge verwachtingen van de AI. Hoe succesvol de politisering en mythologisering van AI is blijkt uit recent onderzoek dat meer dan 60 % van de ondervraagden gelooft dat AI over 10 jaar bewustzijn heeft en dat sociale robots gevoelens hebben, reden voor sommigen waarom ze juridisch als persoon beschouwd zouden moeten worden.

Veel wetenschappers wijzen erop dat het grootste gevaar van de AI niet schuilt in wat ze feitelijk kan, maar in wat mensen denken dat ze ‘uit zichzelf’ kunnen. Van een onderscheid tussen ‘uit zichzelf’ en ‘vanzelf’ is men zich meestal niet bewust. Krantenkoppen als “AI presteert beter dan mens.” gaan uit van en bevestigen het beeld van AI als iets dat onafhankelijk van de mens bestaat en ‘uit zichzelf’ beslissingen neemt en kan spreken. Wie dat denkt doet alsof een tekst zonder de mens iets betekent. Het is echter de mens voor wie teksten en technieken zoals AI betekenis hebben. Het is vanwege die betekenis dat deze ook door de mens is ontwikkeld. Dat de systemen zo complex zijn geworden dat geen mens meer kan voorspellen hoe het zich in een concrete situatie gedraagt doet daar niets aan af.

Tegelijk nemen de zorgen over de ontwikkeling van AI toe. Dat heeft alles te maken met het allesomvattende en grenzeloze van de technologie die daardoor een autonome ontwikkeling kent: er lijkt niets te zijn dat van buitenaf de ontwikkeling er van kan sturen. Het praktische probleem van AI is dat ze zelf niet ter verantwoording kan worden geroepen voor het handelen. Verantwoordelijkheid nemen is echter een essentieel onderdeel van gebruikersvriendelijkheid. Wat is er gebruikersonvriendelijker dan een systeem dat niet in staat is te verantwoorden wat het doet en waarom het doet dat het doet? Het heeft er alle schijn van dat de mens maar moet accepteren wat de AI doet. “De computer zegt het.”

Als de technologie zelf niet haar gedrag kan verantwoorden, kan de mens achter de techniek dat dan niet? De vraag is echter wie dat zijn. Wie is OpenAI, de onderneming achter ChatGPT? OpenAI legt de verantwoordelijkheid voor wat ChatGPT doet volledig bij de gebruiker. Dat is terecht. Maar, anderzijds doet ze er alles aan om haar produkt als superintelligent aan te prijzen. Ze kan echter alleen kansuitspraken doen als het gaat over de feitelijke correctheid van de beweringen die worden gedaan. Daarin verschilt ChatGPT niet van mensen.

Het blijkt dat we de praktische problematiek van de AI niet los kunnen zien van de theoretische, filosofische, vraag naar de algemene denk- en levenshouding die aan de technologie ten grondslag ligt.

Kijken we bijvoorbeeld naar het gebruik van algoritmes door de Belastingdienst voor het opsporen van fraude. Wie is verantwoordelijk voor een fout door het systeem: een burger is ten onrechte aangemerkt als frauduleus en daarvoor bestraft. Is het de overheid, de softwareproducent, de onderneming die de software heeft gemaakt, of de maker van specifieke sofwaremodules in de sofware, of de rechter die zich gehouden voelt aan de wet en de politiek? De wetgever? Iedereen heeft zich aan zijn taak gehouden. Niemand is verantwoordelijk en iedereen is verantwoordelijk, was de conclusie van de speciale onderzoekscommissie.

De aanname is allereerst dat het definieerbaar en berekenbaar is of een burger fraude pleegt. De aanname is dat frauduleus gedrag is op te sporen aan de hand van beschikbare gegevens. Of een burger fraude heeft gepleegd kan volgens de aanname door een systeem worden beslist zonder dat een persoon met deze burger zelf een open gesprek heeft gehad. Daarmee bepaalt het systeem zelf, of beter: de makers ervan die zich aan het criterium van berekenbaarheid confirmeren, wat ‘frauduleus gedrag’ is. Motieven of andere aanleidingen die tot het gedrag hebben geleid en die in een gesprek met de burger naar boven zouden kunnen komen, doen voor het systeem niet ter zake. Niet omdat ze er per sé niet toe doen, maar omdat de technologie en de efficiënte aanpak van fraude er geen rekening mee kan houden. Ze zijn niet meetbaar, niet berekenbaar en kunnen dus niet in een mathematisch model worden opgenomen.

Mensen hebben vaak hoge verwachtingen van de mogelijkheden die de techniek biedt. Dat is soms de oorzaak van oneigenlijk gebruik ervan. Zo denken sommige mensen dat AI systemen die teksten produceren ook weten wat ze zeggen en dat ze kunnen verantwoorden wat ze zeggen. Terwijl de producent ervan geen enkele garantie kan geven dat dat het geval is. Het is altijd aan de eindgebruiker te controleren of wat de machine zegt ook waar is. Bij rekenmachines is dat principieel anders dan bij AI systemen zoals chatbots die hun tekstuele uitvoer baseren op statistische gegevens. Een rekenmachine kan kapot zijn, maar dan zal deze ook geen enkel correct antwoord meer geven. De antwoorden die een zoekmachine geeft kunnen niet zonder meer door de gebruiker als correct worden beschouwd.

We lijken tegen de grenzen aan te lopen van een bepaalde denkhouding tegenover de werkelijkheid een denk- en levenshouding die overheersend is in onze economische samenleving. Kenmerk is dat alles nuttig moet zijn, dat alles functioneel wordt beschouwd.

Het gebruik van AI is onderdeel geworden van de ontwikkeling van nieuwe AI technologie. AI producenten gebruiken de gegevens over het gebruik van hun produkten om deze verder te ontwikkelen.

De ontwikkeling van AI is in belangrijke mate afhankelijk is van het feitelijke gebruik. De gebruiker is medeontwikkelaar, want hij levert de data waar de systemen van leren. Met AI wordt op basis van internetgedrag van de burger een profiel gemaakt. Dat profiel wordt gebruikt om gerichte reklameboodschappen te sturen aan de burger.

Het gebruik en de ontwikkeling van AI

De prioriteit van het Europese Parlement is ervoor te zorgen dat AI-systemen die in de EU worden gebruikt veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk zijn. Het Parlement vindt dat AI-systemen nooit volledig geautomatiseerd mogen zijn, maar altijd onder menselijk toezicht moeten staan om schadelijke gevolgen te kunnen voorkomen. Daarmee zegt ze dat het in principe mogelijk is dat deze systemen volledig autonoom kunnen zijn en zonder menselijk toezicht kunnen werken.

Een nobel streven, maar wie er even over nadenkt wat dit betekent, bijvoorbeeld voor het inzetten van autonome bewapende drones, vliegende systemen die zelf bepalen of ze wel of niet een bom moeten laten vallen op vijandelijk gebied, die begrijpt dat het niet zo eenvoudig is als het lijkt. Het probleem is dat de drone niet zelf ter verantwoording kan worden geroepen voor zijn ‘handelen’, wanneer blijkt dat dit niet voldeed aan het internationale oorlogsrecht. Het doel mag geen burgerdoel zijn en het middel moet proportioneel zijn. Daarbij moet rekening worden gehouden met mogelijke neveneffecten, ‘collateral damage’. Wie de oorlog van het Israëlische leger tegen Hamas in Gaza, waarbij AI wordt ingezet voor doelzoeken in aanvallen met onbemande wapens, volgt, die weet hoe de partijen ernstig verdeeld zijn over de kwestie van de moraliteit van deze toepassing van AI. Regels dwingen niet af dat ze worden opgevolgd, noch hoe ze in een concrete situatie geinterpreteerd moeten worden. Uiteindelijk zijn het de mensen die het voor het zeggen hebben die bepalen of een systeem op een verantwoorde wijze als autonoom beschouwd kan worden. Zo’n besluit kan alleen maar verantwoord genomen worden wanneer diegenen beschikken over de noodzakelijke informatie. Bij het delen van die informatie spelen allerlei vaak tegenstrijdige belangen een rol.

De werking van een AI systeem bestaat altijd slechts als onderdeel van een menselijke politieke sociaal-economische organisatie waarbinnen het systeem functioneert.

Het Europese Parlement pleit voor een technologieneutrale, uniforme definitie van AI die geldt voor alle toekomstige AI-systemen. Dat is opmerkelijk gezien het feit dat mensen het niet eens zijn over de kwestie of AI systemen bewustzijn kunnen hebben en of ze als een ding of als een juridisch persoon moeten worden opgevat.

AI systemen zijn ingedeeld in categorieën naar de mate van risico van hun gebruik: onaanvaarbaar risico, hoog risico, generatieve en laag risico.

De AI-systemen die worden ingedeeld als onaanvaardbaar risico worden geacht in strijd te zijn met de waarden van de Europese Unie, bijvoorbeeld vanwege een schending van grondrechten. Het verbod geldt voor manipulatieve praktijken en misbruik van kwetsbare groepen. Het voorstel verbiedt ook AI-systemen die gebaseerd zijn op ‘sociale scoring’ voor algemene doeleinden door overheidsinstanties. Het gebruik van ‘realtime’ biometrische systemen voor het identificeren van personen op afstand in openbare ruimten met het oog op rechtshandhaving is grotendeels verboden.

De algoritmes die de Belanstingdienst gebruikte voor fraudedetectie zijn voorbeelden van ‘social scoring’ methodes en hebben volgens de AI Act een onaanvaarbaar risico. De staatssecretaris van informatietechnologie Van Huffelen denkt daar overigens anders over: ze vindt dat deze algoritmes in de categorie hoog risico valt. Er zal een rechter aan te pas moeten komen die bepaalt wie gelijk heeft.

De AI act spreekt van het manipuleren van ‘kwetsbare groepen’. Zijn dat alleen kinderen, zwak begaafden en dementerende bejaarden, of vallen in principe alle mensen er onder? Iedereen is in principe in principe immers onder bepaalde omstandigheden gevoelig voor manipulatie. Kunnen we niet beter eisen van AI dat deze alleen dan mag worden ingevoerd en gebruikt wanneer redelijkerwijs te verwachten is dat deze bijdraagt aan de kwaliteit van leven van de gebruikers. Niet de afwezigheid van schadelijke effecten, maar de aanwezigheid van positieve effecten voor de samenleving zou als criterium moeten gelden voor de ontwikkeling en het gebruik van technologie.

Ethiek en wereldbeeld gaan samen en kunnen niet los van elkaar verkocht worden.

Er lijken twee verschillende wereldbeelden en mensbeelden te zijn die bepalen welk standpunt men inneemt ten aanzien van de mogelijkheden en de grenzen van de kunstmatige intelligentie. Kunnen we onze verstandelijke vermogens zelf in de machine stoppen of alleen de toevallige, historische, uitingen van deze vermogens, zoals we die tegen komen in het feitelijk (taal)gedrag van mensen? De taalmodellen (LLMs) waarop dialoogsystemen als ChatGPT gebaseerd zijn leggen niet voor eens en altijd vast wat taalgebruik is en wat in taal uitgedrukt kan worden. Wie dat denkt verwart intelligentie als vermogen met de feitelijke historische uitingen ervan. Wie denkt dat AI nu of in de toekomst over bewustzijn beschikt, of kortgezegd: dat machines bewustzijn kunnen hebben die heeft een andere idee van de verhouding van mens tot technologie dan iemand die dat voor onmogelijk houdt.

Sommige mensen houden dit voor een semantische kwestie. Ze zeggen: of een machine wel of niet bewustzijn heeft, hangt ervan af wat je onder ‘machine’ en onder ‘bewustzijn’ verstaat. De discussie die daarop volgt is er een tussen mensen die verschillende betekenissen geven aan de woorden. Waar ze het over eens zijn is dat die woorden iets betekenen en dat ze in die discussie proberen te achterhalen hoe het precies zit. Ze hebben het over de machine en ze zijn het erover eens dat dit een constructie is van de mens. Iets dat niet zichzelf heeft gemaakt, maar dat door de mens is gemaakt met een bepaald doel. Dat is de primaire zin van de machine. Het bestaat louter als machine in relatie tot de mens voor wie het machine is. Zonder die mens zou het slechts een fysisch proces zijn. Van een appel die van de boom valt kunnen we zeggen dat deze preceis berekent met welke snelheid het op de grond moet komen. Alsof deze de natuurwetten kent die het gebruikt bij zijn val. Maar wij weten dat dit slechts zo is in relatie tot onze kennis van de natuur zoals we die in mathematische formules hebben uitgedrukt. Dat we op die natuur kunnen rekenen, dat is iets dat ons verstand te boven gaat. Die werkt wat ons betreft vanzelf.

AI stelt ook de kwestie van het particuliere eigendomsrecht aan de orde. Van wie is de technologie eigenlijk? Is dat niet net als de taal die we spreken, en gezamenlijk in en door het gebruik ontwikkelen eigendom van ons allemaal?

Bronnen

AI (2021). Opgave AI. De nieuwe systeemtechnologie. Rapport 105 van de Wetenschappelijke Raad voor het Regeringsbeleid. Op 11 november 2021 door de WRR aangeboden aan de regering. Het rapport kan gratis worden gedownload van wrr.nl.

Published by

admin

Rieks op den Akker was onderzoeker en docent kunstmatige intelligentie, wiskunde en informatica aan de Universiteit Twente. Hij is gepensioneerd.

Leave a Reply