3.2

Ethics by Design

Als we in de toekomst ethisch↓Ethiek is een tak binnen de filosofie die zich bezighoudt met de systematische reflectie van wat als goed of juist handelen bestempeld wordt. >Hoofdstuk 3.1 verantwoorde AI↓De meest dominante associatie met AI is machine learning. Uit onderzoek van de World Intellectual Property Organisation (WIPO) uit 2019 blijkt tevens dat machine learning de meest dominante AI-technologie is die in patentaanvragen is opgenomen. Binnen deze toekomstverkenning richten we ons daarom hoofdzakelijk op machine learning en aanverwante methodieken. >Hoofdstuk 1.1.1-systemen willen gebruiken, dan redden we het niet met alleen richtlijnen↓In de afgelopen jaren hebben uiteenlopende bedrijven, onderzoeksinstellingen en overheidsorganisaties verschillende principes en richtlijnen opgesteld voor ethical AI. Zowel op nationaal en continentaal niveau, als op mondiaal niveau. >Hoofdstuk 3.2.1 en assessments. Er zijn handvatten nodig om dergelijke principes daadwerkelijk te integreren in het ontwerp. We moeten daarom de stap maken van evalueren naar integreren. Kortom, er is behoefte aan ‘Ethics by Design’. Ondanks het feit dat steeds meer ethici dit inzicht delen blijft het vaak bij de constatering dát het noodzakelijk is om waarden te integreren in AI-toepassingen. De vraag hóe dit precies in de praktijk moet gebeuren blijft grotendeels onbeantwoord. Zo worden voorbeelden aangehaald van AI-toepassingen die ethisch verantwoord tot stand zijn gekomen, maar dat zegt niet zo veel over het AI-systeem zelf. Denk bijvoorbeeld aan de Fairphone: een smartphone die zowel eerlijk is voor het milieu, als voor de mensen in het productieproces. Deze telefoon laat weliswaar zien dat waarden verenigd kunnen worden, maar geeft geen antwoord op de vraag of het besturingssysteem ervan ook in staat is om ethisch verantwoorde beslissingen te nemen.

Hetzelfde geldt voor de bestaande impact- en assessmenttools die gebruikt worden bij de beoordeling van AI. Deze gaan meer over de totstandkoming van het AI-systeem, dan over de handeling van het AI-systeem. De meeste assessmenttools zijn checklists waarbij voornamelijk vragen worden gesteld over het gebruik van de datasets. Is de data geanonimiseerd? Is de data divers genoeg? En is het proces transparant↓Transparantie binnen het besluitvormingsproces van AI gaat voornamelijk over het proces en de opgestelde criteria vooraf. >Hoofdstuk 3.1.2? Ze geven vaak geen antwoord op de vraag op welke wijze een AI-systeem tot ethisch verantwoorde beslissingen kan komen. Om ethiek daadwerkelijk in de AI-praktijk te kunnen brengen moet worden gekeken naar de verschillende manieren waarop een AI-systeem kan leren wat wel en niet ethisch verantwoord is. De vraag is dus op welke wijze we systemen kunnen bouwen die in verschillende situaties ethisch verantwoord kunnen handelen. Kun je ethische regels in het systeem programmeren? Moeten we het systeem ethische doelfuncties meegeven? Of kan het systeem zelf morele afwegingen maken? Om hier antwoord op te geven onderscheiden we drie verschillende systeembenaderingen, namelijk statisch leren, adaptief leren en intuïtief leren.

Statisch leren

Bij statisch leren worden ethische principes en regels in het intelligente systeem geprogrammeerd. Het doel van het AI-systeem is daarmee impliciet onderdeel van het algoritme↓Een algoritme is een wiskundige formule. Het is een eindige reeks instructies die vanuit een gegeven begintoestand naar een vooraf bepaald doel leidt. >Hoofdstuk 1.1.1 en moet uiteindelijk door een programmeur worden ingevuld. Als we willen dat een autonoom voertuig ons zo snel mogelijk van A naar B vervoert, dan moeten ook de uitzonderingen in het algoritme zijn ingebed. We willen natuurlijk niet dat een voertuig de verkeersregels negeert en met 300 km per uur dwars door het weiland scheurt. Zo snel mogelijk betekent objectief gezien namelijk letterlijk zo snel mogelijk. Het algoritme moet tevens rekening houden met waarden als veiligheid. Deze benadering lijkt ook gehanteerd te worden door ethici en ontwikkelaars binnen de Value Sensitive Design (VSD) community. Het uitgangspunt hierbij is dat waarden, zoals veiligheid, in een zo vroeg mogelijk stadium van het ontwerpproces expliciet gemaakt moeten worden. Deze waarden kunnen vervolgens geformaliseerd worden en op deze wijze worden ingebed in het AI-systeem.

» Ethiek moet bij technologie al in het ontwerp zitten. «

— Jeroen van den Hoven, TU Delft

Voordelen

Het grote voordeel van deze benadering is dat ethische principes vrij transparant zijn en goed te interpreteren zijn door mensen. We kunnen daardoor samen nadenken over wat we als samenleving belangrijk vinden en dit vastleggen in AI-systemen. Dit geeft een zekere mate van ‘human control’. Nog voordat AI-systemen op de markt komen kunnen we de ontwikkeling ervan controleren en kunnen we keurmerken uitgeven aan de toepassingen die voldoen aan de opgestelde ethische richtlijnen. Het is daarbij vrij helder wanneer bepaalde richtlijnen worden overtreden. En organisaties die de regels overtreden kunnen dan ter verantwoording worden geroepen. Dit biedt de mogelijkheid om toezichthoudende organen in positie te brengen en de ontwikkeling van AI te monitoren.

» Niet de ethici maar de ingenieurs staan aan de frontlinie van de ethiek. «

— Peter-Paul Verbeek, Universiteit Twente

Nadelen

Er wordt binnen deze benadering echter onvoldoende rekening gehouden met uitzonderingen die zich in de praktijk kunnen voordoen. Deze aanpak vereist dat er regels zijn voor élke situatie die kan voorkomen. Dat is in praktijk vrijwel onmogelijk om te realiseren. Bovendien zijn er situaties waarin tegenstrijdige regels gelden. Zo mag je bijvoorbeeld niet door rood rijden. Maar wanneer een groep mensen ontweken kan worden moet een autonoom voertuig wel degelijk door rood rijden. Het is bijna onmogelijk om ál deze uitzonderingen vast te leggen. Daarnaast zijn niet alle gevolgen vooraf te overzien. Toen GPS-functionaliteiten voor de ruimtevaart werden ontwikkeld kon niemand voorzien dat deze functionaliteit uiteindelijk via onze telefoons in onze broekzak terecht zou komen. Met alle gevolgen van dien, zowel positief als negatief. Daarnaast krijgen AI-systemen updates: moet er dan per update opnieuw een keurmerk worden aangevraagd? Het is vrijwel onmogelijk om dit allemaal vooraf vast te leggen in ethische richtlijnen.

» Je kunt een bewakingsrobot meegeven dat hij geen mensen mag verwonden. Maar dat is een belemmering als die robot een aanslag moet voorkomen. «

— Leon Kester, TNO

Deze benadering legt daarnaast te veel verantwoordelijkheid bij de programmeur. De richtlijnen vertellen namelijk niet op welke wijze de waarden geformaliseerd moeten worden in wiskundige↓AI is in de basis ‘gewoon’ wiskunde. Weliswaar een enorm geavanceerde vorm van wiskunde, maar het blijft wiskunde. Het is boven alles een middel om een optimalisatiedoel te bereiken. >Hoofdstuk 1.1.1 termen. De vraag wat precies fairFairness is een veelgebruikt principe in ethische richtlijnen en assessment tools. Het vraagstuk wat precies ‘fair’ is houdt filosofen al een paar honderd jaar bezig. Door de komst van AI krijgt dit vraagstuk een nieuwe dimensie. Het concept van eerlijkheid moet namelijk in wiskundige termen worden uitgedrukt. >Hoofdstuk 3.2.3 is, hangt af van de context en de specifieke gebruikerstoepassing. Er bestaat daarbij altijd het risico dat bijvoorbeeld bij een medische test de uitslag van patiënten onterecht als positief of negatief wordt geclassificeerd. Dit zou ertoe leiden dat gezonde patiënten onterecht medicijnen krijgen toegediend en noodlijdende patiënten onterecht geen medicijnen krijgen. Het is niet eerlijk en daarnaast onverantwoord om dergelijke configuraties enkel aan de programmeur over te laten.

Adaptief leren

Bij adaptief leren worden de regels niet voorgeprogrammeerd, maar leert het systeem wat ‘goed en slecht’ is van menselijk gedrag. Hiervoor wordt het algoritme uitgerust met een doelfunctie, waarmee gespecificeerd kan worden waarop er door het algoritme geoptimaliseerd moet worden. Hierbij wordt een duidelijk onderscheid gemaakt tussen het probleemoplossend vermogen van het intelligente systeem en de doelfunctie. Op deze manier kunnen specifieke toepassingsdoelen gecombineerd worden met ethische doelen. Zo kan een autonoom voertuig ons zo snel mogelijk van A naar B vervoeren (toepassingsdoel) én rekening houden met onze veiligheid (ethisch doel). Wanneer er in de praktijk tegenstrijdige regels gelden dan moet het AI-systeem in staat zijn om afwegingen te maken. Deze opvatting is populair bij onder andere Open AI en de Future of Life Institute. Volgens AI-pionier Stuart Russell kunnen AI-systemen alleen dergelijke afwegingen maken als de systemen in de praktijk leren wat menselijke waarden inhouden. In zijn TED-Talk uit 2017 zet hij hiervoor drie pijlers uiteen om veiligere AI-toepassingen te kunnen ontwikkelen:

1. Het enige doel van het AI-systeem is om de realisatie van menselijke waarden te maximaliseren;
2. Het is voor het AI-systeem aanvankelijk niet zeker wat die waarden precies zijn;
3. Menselijk gedrag biedt voor het AI-systeem informatie  over menselijke waarden.

Oftewel, learning on the job. Hiervoor is het van belang dat machines alles leren over menselijke waarden, om te achterhalen wat echt belangrijk voor ons is.

Voordelen

Het voordeel van deze benadering is dat het AI-systeem in de context leert wat de juiste handeling is en daardoor om kan gaan met tegenstrijdige regels. Wanneer de regels vooraf geprogrammeerd worden is dat vrijwel onmogelijk. AI-systemen worden hierdoor veel flexibeler en beter inzetbaar. Deze benadering maakt het daarbij mogelijk dat het systeem leert van het menselijk gedrag, zonder slechte eigenschappen te kopiëren. Het systeem leert namelijk niet alleen van individuen (we doen allemaal weleens iets ‘slechts’), maar van de samenleving als geheel (‘slecht’ gedrag wordt dan in perspectief geplaatst). Zo kan het systeem leren dat mensen bijvoorbeeld iets stelen, wanneer ze te weinig geld hebben om hun kinderen te laten studeren. In plaats van te leren dat stelen in zo’n situatie is toegestaan, zal het systeem proberen te helpen om de kinderen naar school te krijgen. Systemen zijn niet ‘belast’ met menselijke driften en emoties, zoals status en macht, die voortkomen uit een biologische evolutie.

» The robot does not have any objective of its own. It’s purely altruistic. «

— Stuart Russell, University of Berkeley

Nadelen

De uitdaging van deze benadering is dat een AI-systeem moet handelen naar menselijke waarden van de gehele samenleving, niet alleen van de gebruiker. Als een machine jouw welzijn vooropstelt, dan kan dat ten koste gaan van een ander. Het systeem moet op de een of andere manier de voorkeuren van veel verschillende mensen afwegen. In zijn Talk geeft Russell een aantal voorbeelden, waarbij deze benadering verkeerd kan uitpakken. Stel: je bent de verjaardag van je vrouw vergeten en je hebt een belangrijke afspraak gepland die je niet kunt afzeggen. Een AI-systeem kan dan voor jouw geluk besluiten het vliegtuig van je afspraak te laten vertragen, zodat je toch met je vrouw uit eten kunt gaan. Maar dat ontregelt het leven van anderen. De redenatie kan ook andersom gelden. Stel dat je honger hebt en je vraagt een ‘robotkok’ om een broodje ham te bereiden, dan kan deze weigeren omdat er elders op de wereld mensen leven waar de noodzaak aan eten groter is. Het kan volgens Russell ook zo zijn dat er afwegingen gemaakt moeten worden tussen menselijke waarden. Stel dat de robotkok toch besluit je broodje ham te gaan maken, dan kan het voorkomen dat er geen vlees in de koelkast ligt. Maar er loopt wel een kat rond in huis. Welke waarde weegt dan zwaarder: de behoefte aan eten of de sentimentele waarde aan een huisdier? Volgens de Piramide van Maslov wint eten dan. Doordat we niet vooraf meegeven wat goed en slecht is geven we een groot deel van de controle over het systeem af. Wanneer een AI-toepassing onbedoelde gevolgen veroorzaakt is het erg lastig om in te grijpen.

» We had better be quite sure that the purpose we put into the machine is the purpose which we really desire. «

— Norbert Wiener, 1960

Een andere uitdaging is dat veel van onze morele opvattingen impliciet↓Common sense bestaat uit alle kennis over de wereld; van fysieke en zichtbare aspecten, tot culturele en dus meer impliciete regels, zoals hoe je met elkaar omgaat. >Hoofdstuk 1.2.1 zijn. We spreken ze niet letterlijk uit. Dat maakt het lastig voor een AI-systeem om te leren. Daarbij is het lastig voor computers om emoties↓Affective Computing gaat over systemen die emoties kunnen opsporen en herkennen. >Hoofdstuk 1.1.1 goed in te schatten. Wanneer mensen lachen is het moeilijk om te bepalen of dit oprecht is, of dat er een andere emotie of een ander motief achter schuilgaat.

» Computers can’t tell if you’re happy when you smile. «

— Angela Chen, MIT Technology Review

Intuïtief leren

Bij intuïtief leren worden elementen van statisch en adaptief leren gecombineerd. Het algoritme krijgt ook bij deze benadering een doelfunctie, maar het systeem leert hierbij niet van het gedrag van mensen. In plaats daarvan bepalen mensen hoeveel waarde ze aan bepaalde doelen hechten door middel van het toekennen van gewichtsfactoren. Het gewicht wordt bepaald aan de hand van het nut dat het doel heeft voor de samenleving. Er wordt daarom ook wel gesproken over een ‘utility function’. Dit stelt het systeem in staat om beredeneerde afwegingen te maken op basis van deze vooraf gewogen factoren. Wanneer een autonoom voertuig ons van A naar B moet vervoeren zijn er verschillende doelen relevant, zoals reistijd, comfort, verkeersveiligheid en duurzaamheid. Aan deze verschillende doelen worden verschillende gewichtsfactoren toegekend. Het autonome voertuig zal dan de doelfunctie gebruiken om te beslissen welke route en welk rijgedrag het beste rekening houdt met zowel de wensen van de passagier (comfort en aankomsttijd) als van de samenleving (veiligheid en milieu). Afhankelijk van het gewicht en de huidige staat van de omgeving (zoals de hoeveelheid verkeer op de weg) zijn verschillende uitkomsten mogelijk.

Deze vorm van leren lijkt sterk op het menselijk We willen graag geloven dat wij mensen rationele wezens zijn. Maar het besluitvormingsproces is grillig. Beeldvorming en ambities spelen naast feitelijke kennis een belangrijke rol. >Hoofdstuk 1.2.2; het is intuïtief. Het is voor mensen mogelijk om op basis van wetten en regels auto te rijden, omdat ze deze naar de specifieke context vertalen. Deze laatste stap kun je niet voorprogrammeren. Zo is de wettelijke maximumsnelheid op veel plekken in Nederland verlaagd naar 100 km per uur. Beter voor de verkeersveiligheid én beter voor het milieu is de gedachte. Hoewel mensen op deze plekken 100 km per uur mógen rijden, doen ze dat niet overal. De snelheid wordt continu afgestemd op de omgeving.

Voordelen

Het voordeel van deze benadering is dat de meerwaarde van statisch en adaptief leren wordt gecombineerd: het biedt de controle van de statische benadering en de flexibiliteit van de adaptieve benadering. Een AI-systeem krijgt op deze wijze de waarden mee die de maatschappij van belang vindt om mee te wegen in een advies of beslissing. Zo kan de rekenkracht van de computer benut worden om de best mogelijke uitkomst in elke situatie te berekenen. Op deze wijze blijven ethisch verantwoorde uitkomsten gewaarborgd, zonder dat we de controle volledig uit handen geven. Het is immers nog steeds aan de mens om gewicht te geven aan de factoren die meegenomen worden in de weging. Hiermee wordt ook afgestapt van de scherpe trade-off tussen goed óf slecht. In de realiteit doen er zich voortdurend situaties voor waarbij we moeten kiezen tussen twee ‘kwaden’. Welk kwaad zwaarder weegt hangt dan af van de context. Met deze benadering kan het systeem bepalen welke uitkomst dan het best is voor het individu en de samenleving.

» Een autonoom voertuig kan dan zo goed mogelijk kiezen tussen twee in principe ongewenste alternatieven. «

— Leon Kester, TNO

Nadelen

Het nadeel van deze benadering is dat ervan uit wordt gegaan dat algoritmen in staat zijn om genuanceerde afwegingen te kunnen maken. Volgens Peter Eckersley, onderzoeksdirecteur van The Partnership on AI, zijn algoritmen ontworpen om een enkel wiskundig doel na te streven, zoals het minimaliseren van de kosten of het maximaliseren van het aantal gepakte fraudeurs. Wanneer er wordt geprobeerd om meerdere doelen gelijktijdig na te streven – waarvan sommige doelen met elkaar concurreren – stuit de ontwikkeling van AI-systemen op praktische en conceptuele problemen. Dit wordt ook wel de ‘impossibility theorem’ genoemd. Met name wanneer immateriële waarden, zoals vrijheid en welzijn, gemaximaliseerd moeten worden, bestaat er volgens Eckersley soms gewoonweg geen wiskundige oplossing. Ethiek lijkt meer te zijn dan een kosten-baten afweging. Het gaat ook om de minder tastbare begrippen, zoals empathie↓Empathie is de vaardigheid om je in te kunnen leven in de situatie en gevoelens van anderen. Door empathie zijn we in staat om ook de non-verbale communicatie van anderen te lezen en begrijpen. >Hoofdstuk 1.2.1, mededogen en respect. Eckersley beschrijft in een inmiddels ‘berucht’ artikel dat het onmogelijk is om formeel te specificeren wat een goede uitkomst is voor een samenleving, zonder menselijke ethische intuïties te schenden.

» Such systems should not use objective functions in the strict mathematical sense. «

— Peter Eckersley, The Partnership on AI

Ondanks de kritiek lijkt intuïtief leren de enige manier om te kunnen omgaan met de complexiteit van ethische vraagstukken, zo bepleiten ook TNO-onderzoeker Leon Kester en PhD candidate Nadisha-Marie Aliman in hun onderzoek. Er is een systeem nodig dat het vermogen heeft om te kunnen redeneren met onzekerheid en een idee van ‘zelf’ heeft om met ‘trolleyachtige’ problemen om te kunnen gaan. Er moet hierbij zowel gekeken worden naar de waarde↓Bij beginselethiek wordt steeds een beginsel als uitgangspunt genomen. Denk bijvoorbeeld aan eerbied voor het leven en menselijke waardigheid. Bij de oplossing van een ethisch probleem moet recht gedaan worden aan een of meer van deze beginselen of principes. Het beginsel dient hierbij te allen tijde toegepast te worden, onafhankelijk van de gevolgen. >Hoofdstuk 3.1.3 die de maatschappij hecht aan de handeling en de gevolgen↓De gevolgenethiek stelt dat de gevolgen van een bepaalde handeling bepalen of er sprake is van ‘juist handelen’. Het gedrag moet dus positieve gevolgen hebben, zelfs wanneer hierbij bepaalde beginselen ondermijnd worden. De handeling zelf wordt dus niet ter discussie gesteld, alleen de gevolgen ervan. >Hoofdstuk 3.1.3 van de handeling, als naar de persoon↓Bij de deugdethiek staan niet de regels of bepaalde principes centraal binnen het moreel oordelen, maar het karakter van de persoon die handelt. Ook hier staat het handelen los van de expliciete gevolgen die het heeft. Om goed te kunnen handelen zijn bepaalde karaktereigenschappen nodig, oftewel deugden. >Hoofdstuk 3.1.3 (of het object) die de handeling uitvoert, zo blijkt ook uit onderzoek van ethicus Bart Wernaart. ‘De ethiek’ zou daarom niet letterlijk in het ontwerp moeten zitten, maar het systeem zelf zou in staat moeten zijn om ethische afwegingen te kunnen maken. We zouden daarom niet moeten spreken over ‘Ethics by Design’ maar over ‘Designing for Ethics’. Momenteel is de technologie nog niet zo ver, maar er wordt hard gewerkt aan nieuwe invalshoeken. Denk bijvoorbeeld aan ontwikkelingen op het gebied van hybrid AI. Hierbinnen wordt aan systemen gewerkt die kunnen kijken (met behulp van onder andere neurale netwerken↓Artificiële neurale netwerken worden gebruikt binnen deep learning en zijn oorspronkelijk gebaseerd op het menselijk brein, waarbij neuronen laagsgewijs met elkaar verbonden zijn. >Hoofdstuk 1.1.1) én kunnen redeneren (met behulp van onder andere formele logica↓In de eerste fase van AI, van 1957 tot eind jaren ‘90, werd voornamelijk gebruik gemaakt van formal logic, oftewel als-dan regels. Deze vorm van AI was vooral gericht op high level cognition, zoals redenering en probleemoplossing. >Hoofdstuk 1.1.1). Deze stroming wordt ook wel Deep ReasoningDeze nieuwe benadering pakt problemen van de oude benaderingen aan door ze te combineren. Deep Reasoning verhelpt het schaalbaarheidsprobleem van het symbolisme (het is onmogelijk om alle opties efficiënt te programmeren) en het pakt tegelijkertijd het dataprobleem van neurale netwerken aan (grote datasets zijn vaak niet beschikbaar of onvolledig). >Hoofdstuk 1.3.1 genoemd, een combinatie van deep learningDeep learning is een machine learning-methode die gebruik maakt van verschillende gelaagde artificial neural networks. >Hoofdstuk 1.1.1 en symbolic reasoning. Op deze wijze zijn systemen steeds beter in staat om intuïtief te leren.

» Deep Reasoning is the field of enabling machines to understand implicit relationships between different things. «

— Adar Kahiri, Towards Data Science
3.2

Ethics by Design