2.1

Van corporate tot government

In de afgelopen jaren hebben uiteenlopende bedrijven, onderzoeksinstellingen en overheidsorganisaties verschillende principes en richtlijnen opgesteld voor ethical AI. Zowel op nationaal en continentaal niveau, als op mondiaal niveau.

Opkomst van ethische richtlijnen

Om overzicht te scheppen in het gefragmenteerde gesprek over de ontwikkeling van ethisch verantwoorde AI-toepassingen hebben onderzoekers van het Berkman Klein Center in 2020 een analyse uitgevoerd van de 36 meest prominente AI-richtlijnen. Deze analyse is onder andere uitgewerkt in een overzichtelijke tijdslijn.

In de tijdslijn is duidelijk te zien dat de frequentie van publicaties in de afgelopen jaren sterk is toegenomen. Er wordt hierbij onderscheid gemaakt tussen principes en richtlijnen van:

Ethiek is overduidelijk niet langer alleen een Europese aangelegenheid. ‘Zelfs’ de Chinese overheid lanceerde in 2019 de ’Governance Principles for a New Generation of AI’. China beseft immers ook wel dat als ze internationaal zaken willen blijven doen in AI, ze dan ook het gesprek over ethisch verantwoorde toepassingen moeten aangaan. Daarbij houden ze zelf graag de touwtjes in handen en zijn frauduleuze praktijken ook voor de Chinese overheid onwenselijk.

Spreiding van ethische richtlijnen

Er zijn ethische principes en richtlijnen in verschillende soorten en maten. Ondanks de grote hoeveelheid is er slechts een beperkte spreiding van richtlijnen. Onderzoekers van ETH Zürich analyseerden in 2019 maar liefst 84 ethische richtlijnen die de afgelopen jaren wereldwijd zijn gepubliceerd. Van de private sector tot maatschappelijke organisaties en overheden. Uit het onderzoek blijkt dat de meeste ethische richtlijnen uit de VS (21), Europa (19) en Japan (4) komen.

De grootste ‘richtlijn-dichtheid’ is te vinden in het Verenigd Koningrijk. Daar werden maar liefst 13 ethische richtlijnen gepubliceerd. Lidstaten van de G7 brachten de meeste ethische richtlijnen voort. De G7 (Groep van 7) bestaat uit zeven belangrijke industriële staten, namelijk Canada, Duitsland, Frankrijk, Italië, Japan, het Verenigd Koninkrijk en de Verenigde Staten. In 1997 is ook de Europese Unie toegetreden, maar de naam is daar niet op aangepast. Dat juist deze landen de meeste richtlijnen publiceren is geen toeval. In 2018 hebben de ministers van de lidstaten die over innovatie gaan een G7-verklaring ondertekend aangaande Human Centric AI. Hierin zijn ze tot een gemeenschappelijke visie gekomen waarmee wordt ingezet op een balans tussen het stimuleren van economische groei door AI-innovatie, het vergroten van het vertrouwen↓Uit onderzoek van onder andere de University of Pennsylvania uit 2014 blijkt dat wanneer mensen een algoritme een kleine en betekenisloze fout zien maken, dat de kans dan groot is dat het vertrouwen volledig verloren gaat. Dit wordt door onderzoekers ook wel algorithm aversion genoemd. >Hoofdstuk 1.2.2 in en de acceptatie van AI en het bevorderen van inclusiviteit bij de ontwikkeling en implementatie van AI.

Hoewel het overzicht een momentopname is (zo zijn er na de publicatie van het onderzoek in China twee nieuwe richtlijnen gepubliceerd) geeft het wel een duidelijke verdeling weer. Het zijn tot nu toe met name de rijkere landen die de wereldwijde discussie over de regulering van AI domineren. Hoewel sommige ontwikkelingslanden betrokken waren bij internationale organisaties die richtlijnen opstelden, hebben slechts enkelen hun eigen ethische principes daadwerkelijk gepubliceerd. Dit is volgens de onderzoekers echter wel van groot belang, aangezien verschillende culturen verschillende opvattingen hebben over AI. Er is mondiale samenwerking nodig om in de toekomst zorg te dragen voor ethische AI die bijdraagt aan het welzijn van individuen en samenlevingen.

Een eerste poging om mondiale samenwerking te realiseren is gedaan door de Organization for Economic Co-operation and Development (OECD). De OECD, een coalitie van landen die zich inzet voor het bevorderen van democratie en economische ontwikkeling, heeft in 2019 een reeks van vijf principes aangekondigd voor de ontwikkeling en inzet van AI. Maar bijvoorbeeld China valt buiten de OECD en is dus niet meegenomen in de totstandkoming van de richtlijnen. De uiteengezette principes lijken in contrast te staan met de manier waarop AI daar wordt ingezet. Met name wanneer het aankomt op gezichtsherkenning en het toezicht op etnische groepen die met politieke dissidentie zijn geassocieerd. Maar juist wanneer er tegenstrijdige opvattingen zijn is het van belang om elkaar op te zoeken en tot een vorm van consensus te komen.

Overeenkomsten en verschillen

De onderzoekers van ETH Zürich keken niet alleen naar de geografische spreiding van de ethische principes en richtlijnen, maar ook naar de inhoudelijke overeenkomsten en verschillen tussen de principes. Uit het onderzoek blijkt dat hoewel geen enkel ethisch principe letterlijk overeenkomt er wel een duidelijke convergentie zichtbaar is rondom de begrippen transparantie↓Transparantie binnen het besluitvormingsproces van AI gaat voornamelijk over het proces en de opgestelde criteria vooraf. >Hoofdstuk 3.1.2, rechtvaardigheid↓Wanneer het over rechtvaardigheid gaat, dan gaat het in de basis over de gelijkwaardigheid van mensen. Mensen dienen gelijk behandeld te worden én gelijke kansen te krijgen. >Hoofdstuk 3.1.2 & eerlijkheid↓Fairness is een veelgebruikt principe in ethische richtlijnen en assessment tools. Het vraagstuk wat precies ‘fair’ is houdt filosofen al een paar honderd jaar bezig. Door de komst van AI krijgt dit vraagstuk een nieuwe dimensie. Het concept van eerlijkheid moet namelijk in wiskundige termen worden uitgedrukt. >Hoofdstuk 3.2.3, betrouwbaarheid, verantwoordelijkheid↓Wanneer het over de ontwikkeling van AI gaat wordt het begrip ‘verantwoordelijkheid’ vaak genoemd. Wie is er bijvoorbeeld verantwoordelijk bij een ongeluk met een zelfrijdende auto? Maar om te bepalen wie er verantwoordelijk is moeten we eerst bepalen waar zij dan precies verantwoordelijk voor zijn en welk gedrag wel en niet te verantwoorden is. Daarbij is het de vraag op welke wijze we de mate van verantwoordelijkheid kunnen herleiden. >Hoofdstuk 3.1.2 en privacy. Deze principes worden in meer dan de helft van alle bronnen genoemd.

Toch zijn er significante verschillen in de manier waarop de ethische principes worden geïnterpreteerd. Met name de specifieke aanbevelingen en aandachtsgebieden die van elk principe zijn afgeleid blijken enorm van elkaar te verschillen. Zo moeten AI-systemen volgens sommige richtlijnen het beslissingsproces vooral verklaarbaar maken, terwijl het volgens andere richtlijnen noodzakelijk is dat de beslissingen ook volledig traceerbaar zijn. De onderzoekers benadrukken daarom het belang van het integreren van de verschillende richtlijnen om zo tot een mondiale overeenstemming te komen over adequate implementatiestrategieën.

De onderzoekers van het Berkman Klein Center kwamen tot een vergelijkbaar inzicht. Op basis van een analyse van de gebruikte termen kwamen ze tot een overzicht van acht overkoepelende principes, die in grote lijnen overeenkomen met de begrippen van het onderzoek van ETH Zürich.

Ook hier wordt het duidelijk dat wanneer je naar de details en interpretaties kijkt er duidelijke verschillen tussen de ethische principes en richtlijnen bestaan. Niet alleen in de mate waarin bepaalde principes zijn uitgewerkt, maar vooral ook in de mate waarin verwezen wordt naar internationale mensenrechten. Zowel naar internationale mensenrechten als algemeen concept, als naar specifieke documenten, zoals de ‘Universal Declaration of Human Rights’ of de ‘United Nations Sustainable Development Goals. In sommige ethische richtlijnen wordt zelfs expliciet gebruik gemaakt van een ‘Human Rights Framework’. Dit betekent dat mensenrechten de basis vormen voor de formulering van ethische richtlijnen voor de ontwikkeling van AI-toepassingen. Tegen de verwachting in zijn het vooral de richtlijnen van de private sector waarin naar mensenrechten wordt verwezen en in veel mindere mate de richtlijnen vanuit overheden.

2.1

Van corporate tot government