1.1

Ethiek in de spotlight

Ethiek↓Ethiek is een tak binnen de filosofie die zich bezighoudt met de systematische reflectie van wat als goed of juist handelen bestempeld wordt. >Hoofdstuk 3.1 is momenteel een hot topic. Zeker binnen de ontwikkeling van AI↓De meest dominante associatie met AI is machine learning. Uit onderzoek van de World Intellectual Property Organisation (WIPO) uit 2019 blijkt tevens dat machine learning de meest dominante AI-technologie is die in patentaanvragen is opgenomen. Binnen deze toekomstverkenning richten we ons daarom hoofdzakelijk op machine learning. >Hoofdstuk 1.1.1, is het een veelbesproken onderwerp. Ethiek lijkt soms zelfs wel alleen voor AI gereserveerd te zijn. Maar dat is natuurlijk niet het geval. In verschillende domeinen spelen uiteenlopende ethische vraagstukken een belangrijke rol. Denk bijvoorbeeld aan de discussie over klonen in de medische biologie of over het gedrag van bankiers in de financiële sector. Toch komen we met de vraag wat ‘het juiste handelen’ precies is in relatie tot AI-toepassingen maar moeizaam vooruit. En dat is eigenlijk ook niet zo vreemd.

Naargelang AI steeds autonomer kan opereren zullen we in steeds grotere mate de controle uit handen moeten gaan geven. Dit is nieuw terrein voor de mens en zorgt logischerwijs voor gevoelens van angst. Hollywood schroomt niet om deze angst verder te voeden. Scenario’s over robots die in opstand komen vormen al bijna 100 jaar een populaire verhaallijn (ervan uitgaande dat ‘Metropolis’ uit 1927 van regisseur Fritz Lang de eerste echte sciencefiction film is waarbij een robot slechte intenties heeft). Daarbij komt dat fictie steeds vaker wordt ingehaald door de realiteit. Zo crashte in 2016 een Tesla op de automatische piloot, waarbij de bestuurder om het leven kwam. Fysiek letsel als gevolg van het gebruik van technologie is niet nieuw, maar dergelijke voorvallen zonder human in the loop (HITL) wel. Het volstaat niet langer om op afstand te filosoferen over wat goed of juist is. Ethiek is meer dan ooit praktische filosofie.

Ethiek in opkomst

Wie is er verantwoordelijk bij een ongeluk met een zelfrijdende auto? Hoe beschermen we onze privacy↓In het Europees Verdrag voor de Rechten voor de Mens is privacy opgenomen als het recht op respect voor het privéleven. Deze bepaling vereist een eerlijke balans tussen het maatschappelijk belang dat een technologie dient en de inbreuk op het privéleven die de technologie maakt. >Hoofdstuk 3.1.2 bij deze datahongerige toepassingen? En hoe kunnen we een onrechtvaardige behandeling door AI-systemen voorkomen? Het is tegenwoordig moeilijk om een AI-gerelateerde conferentie bij te wonen zonder dat een deel van de programmering gewijd is aan ethiek. Een aantal jaren geleden vormden ethici slechts het voorprogramma, tegenwoordig zijn ze op steeds meer conferenties de hoofdact. Deze shift is niet alleen zichtbaar in de programmering van conferenties, maar ook in de organisatie ervan. Dit is goed te zien bij de organisatie van een van de grootste AI-conferenties ter wereld, de Neural Information Processing Systems conference. Uit een grootschalige enquête uit 2017 bleek dat de conferentie geen gastvrije omgeving bood aan vrouwelijke deelnemers. Respondenten maakten melding van seksuele intimidatie en seksistische of seksueel beledigende opmerkingen en grappen. De organisatie besloot daarom in 2018 een nieuwe code of conduct te introduceren om discriminatie tegen te gaan. Ze zetten zich verder in om het evenement inclusiever te maken door onder andere de ondersteuning van kinderopvang. Ook pasten ze de afkorting ‘NIPS’ aan in NeurIPS, om de associatie met ‘nipples’ te voorkomen. Een ogenschijnlijk kleine, maar toch zeer belangrijke aanpassing. In een voorgaande editie droegen sommige mannelijke bezoekers van een workshop over vrouwen in machine learning een T-shirt met een ‘grap’ over tepels.

Het blijft echter niet bij conferenties. Tientallen instanties, van bedrijven en wetenschappers tot overheden, hebben inmiddels ethische richtlijnen↓In de afgelopen jaren hebben uiteenlopende bedrijven, onderzoeksinstellingen en overheidsorganisaties verschillende principes en richtlijnen opgesteld voor ethical AI. Zowel op nationaal en continentaal niveau, als op mondiaal niveau. >Hoofdstuk 3.2.1 opgesteld om de ontwikkeling van betrouwbare AI-toepassingen te kunnen waarborgen. Denk bijvoorbeeld aan de ‘Perspectives on Issues in AI Governance’ van Google, de ‘Asilomar AI Principles’ van de Future of Life Institute en de ‘Ethics guidelines for trustworthy AI’ van de High-Level Expert Group on Artificial Intelligence (AI HLEG) van de Europese Commissie. Het Amerikaanse ministerie van Defensie heeft zijn eigen ‘AI Principles’ met aanbevelingen om het ethisch gebruik van AI binnen defensie te waarborgen. Zelfs het Vaticaan heeft in 2020 richtlijnen gepubliceerd voor de ontwikkeling en het gebruik van AI: ‘Rome Call for AI Ethics’. Tech-reuzen als IBM en Microsoft behoorden tot de eerste ondertekenaars. Waarden als privacy, transparencyTransparantie binnen het besluitvormingsproces van AI gaat voornamelijk over het proces en de opgestelde criteria vooraf. >Hoofdstuk 3.1.2 en fairnessFairness is een veelgebruikt principe in ethische richtlijnen en assessment tools. Het vraagstuk wat precies ‘fair’ is houdt filosofen al een paar honderd jaar bezig. Door de komst van AI krijgt dit vraagstuk een nieuwe dimensie. Het concept van eerlijkheid moet namelijk in wiskundige termen worden uitgedrukt. >Hoofdstuk 3.2.3 worden in verschillende richtlijnen uitgebreid behandeld. Naast verschillende ethische principes worden er ook steeds vaker ‘ethical boards’ in het leven geroepen, die moeten toezien op het ethisch handelen van tech-bedrijven. Volgens Gartner was ‘Digital Ethics & Privacy’ een van de 10 ‘Strategic Technology Trends’ van 2019.

Onethische ethiek

Toch lijkt deze ‘ethiek hype’ alleen besteed aan de big tech-organisaties. Ondanks het feit dat bedrijven over de hele wereld verwachten dat ze de komende jaren AI binnen hun bedrijf gaan toepassen, blijven ze achter bij de discussies omtrent ethiek, zo blijkt uit onderzoek van Genesys (2019). Meer dan de helft van de ondervraagde werkgevers zegt dat hun bedrijf momenteel geen geschreven beleid hebben op het gebied van het ethisch gebruik van AI. Opvallend hierbij is dat slechts 1 op de 5 respondenten uitgesproken bezorgd is dat hun bedrijf AI op een onethische manier zouden kunnen gebruiken. Dit percentage loopt zelfs af wanneer de leeftijd oploopt. 21% van de millennials maakt zich zorgen dat hun bedrijf AI onethisch zouden kunnen gebruiken, vergeleken met 12% van generatie X en slechts 6% van de babyboomers. De onderzoekers vragen zich af of deze mate van onbezorgdheid wel terecht is.

Het AI Now Institute bracht in 2018 een overzicht in kaart van belangrijk nieuws over de sociale implicaties van AI en de tech-industrie. Het overzicht bevestigde wat veel mensen al wel aanvoelden; het was nogal een bewogen jaar. Zomaar een greep uit 2018: een toename van het misbruik van data (met als dieptepunt de onthulling van het Cambridge Analytica schandaal, waarbij miljoenen persoonsgegevens werden ingezet om verkiezingen te beïnvloeden), een versnelling van de verspreiding van gezichtsherkenningssoftware (zoals een samenwerking van IBM en de New York City Police Department waarbij gezichten gezocht kunnen worden op basis van ras, met behulp van camerabeelden van duizenden politieagenten die zonder medeweten deelnamen) en een toename van schadelijke gevolgen door het testen van AI-systemen op levende populaties in domeinen met hoge risico’s (zoals de dodelijke aanrijding van een voetganger door een zelfrijdende Uber). Dit is slechts een kleine selectie van een veel grotere database. Is het dan allemaal kommer en kwel? Nee, er zijn gelukkig ook positieve neveneffecten te onderscheiden. Het zet de discussie omtrent de noodzaak van regulering op scherp. Grote tech-bedrijven, zoals Microsoft en Amazon, hebben de Amerikaanse regering zelfs expliciet opgeroepen om technologieën zoals gezichtsherkenning te reguleren.

» Because AI isn’t just tech. AI is power, and politics, and culture. – AI Now Institute «

— AI Now Institute

Een groeiend verzet

Het AI Now Institute bracht ook in 2019 een overzicht in kaart van belangrijk nieuws over de sociale implicaties van AI en de tech-industrie. Dit gaf een ander beeld dan het jaar ervoor. Er bleek een toenemend verzet merkbaar te zijn tegen schadelijke AI-toepassingen. Een selectie uit de database van 2019: een versnelling van regulerende maatregelen (waaronder het verbod op gezichtsherkenning in San Francisco), een toenemende druk vanuit aandeelhouders (zoals de druk die aandeelhouders van Amazon opvoerden tegen het verkopen van gezichtsherkenningssoftware aan overheden) en een toename van het aantal protesten en stakingen van medewerkers van grote tech-bedrijven (zoals de klimaatstaking van duizenden medewerkers van onder andere Amazon, Google en Microsoft tegen de schadelijke impact van AI-toepassingen op het milieu). Het verzet in 2019 herinnert ons eraan dat er nog steeds ruimte is om te bepalen welke AI-toepassingen acceptabel zijn en op welke wijze we deze willen controleren. Maar ook hier lijkt de wenselijkheid ingehaald te worden door de werkelijkheid.

Door de snelle verspreiding van het coronavirus in 2020 zetten overheden datagedreven apps in om de verspreiding van het virus beter te kunnen monitoren en zo ‘lockdowns’ gerichter te kunnen inzetten. Mensen hebben met deze apps een track and trace systeem in hun broekzak; wanneer jij in de buurt bent geweest van een besmet persoon krijg je een melding. Dit schuurt natuurlijk tegen onze opvattingen over privacy en misschien nog wel belangrijker, tegen onze opvattingen over zelfbeschikking en gelijkwaardigheid. Wat als mensen onterecht verplicht in quarantaine worden gezet? In Nederland stuitte de introductie van deze apps dan ook op veel weerstand. Tegelijkertijd lijken veel mensen zich niet te beseffen dat deze apps op het gebied van privacy misschien wel vriendelijker zijn dan de apps van Google of Facebook die we al jaren zonder blikken of blozen gebruiken. Het is hoe dan ook van groot belang dat er vragen gesteld blijven worden over wie er baat hebben bij AI, wie er benadeeld worden door AI en wie daarover kunnen en mogen beslissen.

1.1

Ethiek in de spotlight