Het formuleren van ethische↓Ethiek is een tak binnen de filosofie die zich bezighoudt met de systematische reflectie van wat als goed of juist handelen bestempeld wordt. >Hoofdstuk 3.1 principes en richtlijnen vormt een belangrijke eerste stap bij de realisatie van ethisch verantwoorde AI↓De meest dominante associatie met AI is machine learning. Uit onderzoek van de World Intellectual Property Organisation (WIPO) uit 2019 blijkt tevens dat machine learning de meest dominante AI-technologie is die in patentaanvragen is opgenomen. Binnen deze toekomstverkenning richten we ons daarom hoofdzakelijk op machine learning en aanverwante methodieken. >Hoofdstuk 1.1.1-toepassingen. Het is echter niet eenvoudig om deze richtlijnen te vertalen naar de praktijk. Wanneer het bijvoorbeeld over transparantie↓Transparantie binnen het besluitvormingsproces van AI gaat voornamelijk over het proces en de opgestelde criteria vooraf. >Hoofdstuk 3.1.2 gaat, dan is de betekenis ervan onder andere afhankelijk van het domein en de omgeving waarin de AI-toepassing wordt ingezet. Wanneer bijvoorbeeld Spotify mij een liedje aanbeveelt dat me niet aanstaat kan ik daar zonder uitleg prima mee leven, maar wanneer ik door een algoritme↓Een algoritme is een wiskundige formule. Het is een eindige reeks instructies die vanuit een gegeven begintoestand naar een vooraf bepaald doel leidt. >Hoofdstuk 1.1.1 word afgewezen tijdens een sollicitatieproces wil ik toch wel weten op basis van welke criteria ik precies ben afgewezen. Daarbij kunnen er in de praktijk allerlei waardenconflicten ontstaan. Denk bijvoorbeeld aan transparantie en privacy↓In het Europees Verdrag voor de Rechten voor de Mens is privacy opgenomen als het recht op respect voor het privéleven. Deze bepaling vereist een eerlijke balans tussen het maatschappelijk belang dat een technologie dient en de inbreuk op het privéleven die de technologie maakt. >Hoofdstuk 3.1.2. Hoe waarborgen we onze privacy wanneer we willen inzetten op transparantie? In veel gevallen is het niet precies duidelijke welke ethische kwesties er precies spelen bij de ontwikkeling van AI-toepassingen.
Gelukkig zijn er steeds meer instanties, zowel nationaal als internationaal, die verschillende tools hebben ontwikkeld die kunnen helpen bij het identificeren van ethische dilemma’s in de praktijk. Aan de hand van deze tools kan in kaart worden gebracht wat de ethische implicaties zijn van het toepassen van AI in de praktijk en welke ethische vraagstukken hierbij een rol spelen. Denk hierbij bijvoorbeeld aan:
- The Algorithmic Impact Assessment (AIA) van het AI Now Institute
- De Ethische Data Assistent (DEDA) van de Utrecht Data School
- Artificial Intelligence Impact Assessment (AIIA) van het ECP
- Toolbox voor Ethisch Verantwoorde Innovatie van het ministerie van Binnenlandse Zaken & Koninkrijkrelaties
Aan de hand van verschillende vragen worden organisaties geholpen om scherper te krijgen welke ethische kwesties er bij hun AI-project spelen en hoe ze daarmee om willen gaan. Denk hierbij aan vragen zoals ‘Zijn er persoonsgegevens gebruikt in het project?’, ‘Zijn alle verschillende groepen burgers vertegenwoordigd in de dataset(s)?’ en ‘Wie missen er of zijn niet zichtbaar?’. Zo kan de mogelijke vooringenomenheid van de toepassing worden blootgelegd en kunnen biases↓Niet alleen menselijke intelligentie, maar ook AI heeft last van vooroordelen. De output van algoritmen kan gender en race biases bevatten. De verklaring ervan is simpel. Wanneer de input niet zuiver is, dan is de output dat ook niet. Biases van algoritmen worden dus veroorzaakt door cognitieve biases van mensen. >Hoofdstuk 1.2.2 voorkomen worden. Het helpt organisaties tevens om dergelijke afwegingen goed te documenteren, zodat het proces transparanter wordt en ze verantwoording kunnen afleggen aan hun stakeholders. Een uitdaging is echter dat dergelijke richtlijnen zich vaak moeilijk eenduidig laten uitdrukken en lastig te kwantificeren zijn.
» There’s no such thing as a single set of ethical principles that can be rationally justified in a way that every rational being will agree to. «
— Tom Chatfield, Tech philosopher
De eenduidigheid van richtlijnen
We willen uiteraard allemaal dat bij de inzet van AI-systemen mensen eerlijk behandeld worden en niet worden benadeeld op basis van bijvoorbeeld hun geslacht of afkomst. Fairness is dan ook een veelgebruikt principe in ethische richtlijnen en assessment tools. Toch is het niet eenvoudig om te bepalen wat dan precies ‘fair’ is. Dit vraagstuk houdt filosofen al een paar honderd jaar bezig. Er bestaat geen eenduidig beeld van hoe de samenleving eruit zou zien wanneer er geen oneerlijkheid meer zou bestaan. Is een samenleving waarin iedereen exact hetzelfde behandeld wordt überhaupt wel eerlijk? Door de komst van AI krijgt dit vraagstuk een nieuwe dimensie. Het concept van eerlijkheid moet namelijk in wiskundige↓AI is in de basis ‘gewoon’ wiskunde. Weliswaar een enorm geavanceerde vorm van wiskunde, maar het blijft wiskunde. Het is boven alles een middel om een optimalisatiedoel te bereiken. >Hoofdstuk 1.1.1 termen worden uitgedrukt. Denk bijvoorbeeld aan het gebruik van AI in het rechtssysteem. Door de inzet van predictive policing kan crimineel gedrag worden voorspeld door middel van grootschalige monitoring en data analyses. Er bestaat echter altijd het risico dat mensen zonder de gestelde criteria toch positief scoren (false-positives) en dat mensen die wel aan de gestelde criteria voldoen toch negatief scoren (false-negatives). Wat is in dit geval fair? Zet je mensen mogelijk onterecht vast, of riskeer je dat ze een misdaad begaan?
In Amerika is veelvuldig gebruik gemaakt van software om te voorspellen hoe groot de kans is dat een veroordeelde opnieuw de fout in gaat. Uit onderzoek van ProPublica in 2016 blijkt dat deze software bevooroordeeld is in het nadeel van mensen met een donkere huidskleur. Dat dit oneerlijk is, is overduidelijk. Maar het is niet eenvoudig om te bepalen wat eerlijk is en waaraan je dit wilt toetsen. Wordt eerlijkheid gedefinieerd door het gebruik van dezelfde variabelen of door dezelfde statistieken na het gebruik van verschillende variabelen? Betekent eerlijkheid dat hetzelfde percentage zwarte en witte individuen hoge risicobeoordelingsscores behalen? Of dat hetzelfde risiconiveau zou moeten resulteren in dezelfde score, ongeacht het ras? De vraag is dus of eerlijkheid gaat over een gelijke behandeling (met het risico op een ongelijke uitslag) of over een gelijke uitslag (met een mogelijk ongelijke behandeling). Uit onderzoek blijkt dat verschillende wiskundige definities van eerlijkheid elkaar wederzijds uitsluiten (Selbst et al., 2019). Het is dus onmogelijk om beide definities tegelijkertijd te vervullen, waardoor er op een gegeven moment een keuze gemaakt moet worden.
Deze keuze kan echter niet zonder meer eenduidig worden gemaakt. Wat onder eerlijkheid wordt verstaan is afhankelijk van het toepassingsdomein. Je kunt het systeem dat voor een eerlijke rechtspraak wordt gebruikt, niet zomaar hanteren voor eerlijke sollicitatieprocedures. Toch is de opvatting vaak dat een krachtig systeem in meerdere domeinen toegepast kan worden. Verschillende culturen en communities hebben daarbij verschillende opvattingen over eerlijkheid. Er gelden niet alleen andere normen, er zijn ook andere wetten van toepassing. Onze opvattingen over goed en fout kunnen daarbij in de loop van tijd veranderen. Dat maakt het lastig en misschien zelfs wel onwenselijk om vooraf te bepalen hoe een AI-systeem moet handelen.
» By fixing the answer, you’re solving a problem that looks very different than how society tends to think about these issues. «
— Andrew Selbst, Data & Society Research Institute
De meetbaarheid van richtlijnen
De verschillende ethische principes en richtlijnen kennen verschillende abstractieniveaus. Eindwaarden en instrumentele waarden lijken hierbij door elkaar te lopen. Zo zijn Societal wellbeing en Safety eindwaarden waar we als samenleving naar streven en zijn Accountability↓Verantwoordelijkheden die door de wet worden voorgeschreven noemen we aansprakelijkheid. >Hoofdstuk 3.1.2 en Transparency instrumentele waarden die we kunnen inzetten om deze eindwaarden te bereiken. Sommige richtlijnen laten zich daarbij eenvoudiger kwantificeren dan andere. De mate van bijvoorbeeld accuratesse kun je meetbaar maken, maar voor transparantie is dat veel lastiger. Wanneer is iets bijvoorbeeld ‘transparant genoeg’? Bij 70 procent transparantie? En wat houdt dat dan precies in?
Het is daarbij de vraag of 100 procent transparantie überhaupt het nastreven waard is. Uit onderzoek van Microsoft Research in 2018 blijkt dat te veel transparantie kan leiden tot een overload aan informatie. Transparante modellen blijken het juist moeilijker te maken om de fouten van het model te detecteren en te corrigeren. Er bestaat daarbij het risico dat transparante modellen onterecht vertrouwd worden. Uit een opvolgend onderzoek van Microsoft Research in samenwerking met de University of Michigan in 2020 blijkt dat door het gebruik van visualisaties over de trainingsresultaten van machine Learning↓Het gaat bij machine learning over een revolutie waarin mensen niet meer programmeren (als dit, dan dat), maar waarin machines zelf regels afleiden uit data. >Hoofdstuk 1.1.1-tools er een misplaatst vertrouwen ontstaat over de toepassingsmogelijkheden van de modellen. Zelfs wanneer de gegevens waren gemanipuleerd en de uitleg niet overeenkwam met de werkelijkheid.
De motieven achter de richtlijnen
In 2019 introduceerde Google de Advanced Technology External Advisory Council (ATEAC). Een externe ethische raad die erop toe zou moeten zien dat het bedrijf zich zou houden aan de zelf opgestelde richtlijnen voor ethisch verantwoorde AI-toepassingen. De ethical board werd echter al na een week weer opgeheven. Direct na de bekendmaking van de samenstelling van de adviesraad ontstonden er hevige discussies, met name over de aanstelling van Kay Coles James. De president van de Heritage Foundation staat bekend om haar conservatieve opvattingen over onder andere de rechten voor de LHBTI-gemeenschap.
Het is daarbij überhaupt de vraag wat de motieven voor Google waren om een ethische adviesraad in het leven te roepen. Volgens experts zijn de ethische richtlijnen en adviesraden van Google en andere commerciële organisaties voornamelijk gericht op het omzeilen van overheidsregulaties. Dit wordt ook wel ‘ethics washing’ genoemd. Het zou een manier zijn om kritiek af te wenden, niet om daadwerkelijk deugdelijk te handelen. Aangezien de adviesraden geen feitelijke macht hebben is het voor organisaties niet nodig om hun gedrag ook daadwerkelijk aan te passen. Het lijkt geen toeval dat Google de adviesraad juist introduceerde kort na een periode waarin ze flink onder druk stonden. Google werkte in die periode onder andere voor de Chinese overheid aan Project Dragonfly. Een zoekmachine die resultaten blokkeert die door de Chinese overheid als onwenselijk worden beschouwd. Volgens Amnesty International zou de gecensureerde zoekmachine het recht op vrije meningsuiting en de privacy van miljoenen Chinezen bedreigen. Later kwamen ook de medewerkers van Google in opstand en schreven een open brief aan het management van Google. Google kondigde in 2018 aan de werkzaamheden stop te zetten, maar medewerkers betwijfelen of dit ook echt gebeurd is. De adviesraad lijkt voor Google vooral een manier te zijn geweest om te zeggen ‘Kijk, wij doen er in ieder geval alles aan’.
Het lijkt geen toeval te zijn dat ook andere tech-organisaties ethische richtlijnen en adviesraden lanceerden in een periode waarin verschillende misstanden in de tech-branche aan het licht kwamen, zoals het Cambridge Analytica schandaal in 2018. Zo richtte Microsoft de AI ethics committee op en deed uitgebreid onderzoek naar de transparantie van AI-systemen. Amazon is sponsor van een onderzoeksprogramma ten behoeve van ‘fairness in artificial intelligence’ en Facebook heeft geïnvesteerd in een ‘AI ethics research center’ in Duitsland.
» Ethics boards and charters aren’t changing how companies operate. «
— James Vincent, The Verge
De uitdaging is om te komen tot bindende richtlijnen. Volgens verschillende experts is wetgeving nodig om ervoor te zorgen dat ethische richtlijnen worden nageleefd. De eerste stap in deze richting wordt beschreven in de ‘White Paper on AI’ die in 2020 door de Europese Commissie is gepresenteerd. In deze white paper zet de commissie voorstellen uiteen om de ontwikkeling van AI in Europa te bevorderen, met inachtneming van de Europese grondrechten. Een belangrijk onderdeel van dit rapport is het voorstel om een ‘prior conformity assessment’ te ontwikkelen voor risicovolle AI-toepassingen, gebaseerd op de ethische richtlijnen van de High Level Expert Group. Dit wettelijk kader moet de risico’s voor de grondrechten en veiligheid aanpakken. Betrouwbare AI-systemen kunnen hiermee een keurmerk verkrijgen, zodat het duidelijk is voor gebruikers welke systemen ze kunnen vertrouwen.

Hoewel het erg belangrijk is om ervoor te zorgen dat de ethische richtlijnen in de praktijk worden toegepast en AI-toepassingen de Europese wetten en grondrechten respecteren, biedt het onvoldoende handvatten om de richtlijnen daadwerkelijk in het ontwerpproces te integreren. De huidige beschikbare checklists en assessment tools zijn hiervoor onvoldoende kwantificeerbaar. Nu kan elk aspect van de lijst ‘afgevinkt’ worden zonder er volledig aan te voldoen. Ethische richtlijnen en assessments zijn dus voornamelijk instrumenten om te evalueren óf de AI-toepassing voldoet of zal voldoen, niet hóe de vereisten geïntegreerd moeten worden in het ontwerp zelf (en daarmee de evaluatie kan doorstaan). Hoewel veel richtlijnen en assessments verschillende checklists en vragenlijsten bieden, geven ze geen antwoord op de vraag hoe AI-systemen ethisch verantwoord kunnen handelen.
» Despite an apparent agreement that AI should be ‘ethical’, there is debate about both what constitutes ‘ethical AI’ and which ethical requirements, technical standards and best practices are needed for its realization. «
— Effy Vayena, ETH Zurich