3.1

Een nieuwe kijk op ethiek

Voorheen ging ethiek↓Ethiek is een tak binnen de filosofie die zich bezighoudt met de systematische reflectie van wat als goed of juist handelen bestempeld wordt. >Hoofdstuk 3.1 voornamelijk over het menselijk handelen. Met de komst van AI↓De meest dominante associatie met AI is machine learning. Uit onderzoek van de World Intellectual Property Organisation (WIPO) uit 2019 blijkt tevens dat machine learning de meest dominante AI-technologie is die in patentaanvragen is opgenomen. Binnen deze toekomstverkenning richten we ons daarom hoofdzakelijk op machine learning en aanverwante methodieken. >Hoofdstuk 1.1.1 is er echter een nieuwe speler in het spel, namelijk de zelflerende technologie. Naarmate de technologie autonomer wordt, meer beslissingen overneemt en de beslisregels lastiger te herleiden zijn, ontstaan er nieuwe ethische vraagstukken. De vraag hierbij is in hoeverre de huidige ethische begrippen nog voldoen. Hoe verhouden mens en technologie zich tot elkaar? En hoe gaat deze verhouding zich ontwikkelen?

Een verruiming van het begrip ethiek

Volgens Peter-Paul Verbeek, hoogleraar Filosofie van Mens en Techniek bij de Universiteit Twente, moeten de begrippen van ethiek worden verruimd. Om aan ethiek te kunnen doen is het volgens de gangbare overtuigingen nodig om intenties te hebben en in vrijheid te kunnen handelen. Volgens Verbeek (2011) bezitten technologieën die mede vormgeven aan morele beslissingen geen intentionaliteit↓Zelfs wanneer je alle kennis over de wereld in een computer programmeert, dan blijft de vraag of een computer daadwerkelijk begrip heeft van zijn handelen. Dit begrip wordt ook wel intentionaliteit genoemd. >Hoofdstuk 1.2.1 en zijn mensen die in hun morele beslissingen gestuurd worden door technologieën niet vrij. Op de vraag of technologie intentionaliteit bezit lopen de opvattingen sterk uiteen, maar dat wij niet langer volledig autonoom zijn en ons leven wordt beïnvloed door technologie is overduidelijk.

Achter de huidige ethiek zit dus vaak onterecht het beeld van een compleet autonome mens. Het is niet de vraag óf we volledig uitlegbare systemen willen (dat station lijkt immers al gepasseerd), maar de vraag hóe we systemen kunnen toepassen die niet meer volledig uitlegbaar zijn. We zouden ons dus meer moeten bezighouden met het in kaart brengen van de impact van deze systemen en een constructief plan moeten maken over hoe we daarmee kunnen en willen omgaan. In plaats van ons enkel te focussen op de vraag wat goed of fout is, moeten we een concreet ethisch raamwerk ontwikkelen waarmee we kunnen omgaan met fouten van AI-systemen. Dit kunnen we niet alleen theoretisch benaderen, maar moeten we in de praktijk ondervinden. We moeten hier in gecontroleerde omgevingen mee experimenteren. Van human in the loop (HITL) naar human on the loop (HOTL). Met AI kunnen we juist meer controle krijgen over de ongelijkheid op het gebied van bijvoorbeeld geslacht of ras. De condities die voor biasesAangezien we evolutionair zijn geprogrammeerd om zoveel mogelijk energie te besparen sluipen er wel wat ‘denkfouten’ in onze informatieverwerking. Deze denkfouten worden ook wel cognitive biases genoemd. >Hoofdstuk 1.2.2 zorgen, kunnen we bij AI veel beter sturen dan bij mensen. Zo kunnen we zorgen voor voldoende diversiteit in de datasets én in de achtergrond van de programmeurs die de algoritmen↓Een algoritme is een wiskundige formule. Het is een eindige reeks instructies die vanuit een gegeven begintoestand naar een vooraf bepaald doel leidt. >Hoofdstuk 1.1.1 ontwikkelen en de wetgevers die hierop toezien. We moeten streven naar systemen die oneerlijkheid eerlijker spreiden. AI kan onze fouten misschien niet helemaal oplossen, maar wel beter verdelen.

» De ergste vorm van ongelijkheid is proberen ongelijke dingen gelijk te maken. «

— Aristoteles

Ethiek als leidmotief

In veel ethische discussies gaat het over de vraag wanneer het wel en niet acceptabel is dat AI wordt ingezet. Er wordt hierbij geprobeerd om harde grenzen en regels te formuleren waarmee de technologie ‘in toom gehouden kan worden’. Hierbij wordt echter gesuggereerd dat de samenleving en de technologie volledig van elkaar te scheiden zijn. Maar het is in de praktijk niet zo zwart-wit. Mens en technologie beïnvloeden elkaar wederzijds; wij geven de technologie vorm en de technologie geeft ons vorm. Naast een verruiming van het begrip, vraagt dit om een andere benadering van ethiek.

Begeleidingsethiek

ECP, het Platform voor de InformatieSamenleving, heeft in 2019 in samenwerking met Peter-Paul Verbeek een rapport over ‘begeleidingsethiek’ gepubliceerd. In plaats van de vraag hoe we AI kunnen beoordelen, zou de focus volgens deze aanpak moeten liggen op de vraag hoe we de implementatie van AI het beste kunnen begeleiden in de samenleving en hoe we er op een verantwoorde manier mee om kunnen gaan. In deze aanpak ligt de focus op de ontwikkeling van technologie met handelingsperspectief.

» In plaats van ethiek te zien als ‘beoordelen’ zou ze ook gezien kunnen worden als het normatief ‘begeleiden’ van technologie in de samenleving. «

— Peter-Paul Verbeek & Daniël Tijink, ECP

Er wordt hierbij onderscheid gemaakt tussen drie soorten handelingen. Bij de eerste handeling (ethics by design) gaat het voornamelijk om het ontwerp van de technologie zelf. Waarden als privacy↓In het Europees Verdrag voor de Rechten voor de Mens is privacy opgenomen als het recht op respect voor het privéleven. Deze bepaling vereist een eerlijke balans tussen het maatschappelijk belang dat een technologie dient en de inbreuk op het privéleven die de technologie maakt. >Hoofdstuk 3.1.2 moeten meegenomen worden in het ontwerp. Zo moeten bijvoorbeeld medische diagnoses met behulp van AI gemaakt kunnen worden, zonder dat de privacy van de patiënt in het gedrang komt. AI-systemen zouden bijvoorbeeld getraind kunnen worden met gegevens van verschillende ziekenhuizen, zonder dat die gegevens ooit het pand van een ziekenhuis verlaten of de servers van een technologiebedrijf aanraken. Bij de tweede handeling (ethics in context) gaat het over context-specifieke afspraken. De introductie van een nieuwe technologie gaat vaak gepaard met veranderingen in de omgeving. Dat is echter niet altijd zichtbaar, denk bijvoorbeeld aan de inzet van gezichtsherkenningssoftware. Daarom moet het voor iedereen duidelijk zijn dat er gebruik wordt gemaakt van AI, welke gegevens worden verzameld, wie er toegang hebben tot de data, wat de mogelijkheden zijn om de beslissingen van een AI-systeem aan te vechten, et cetera. Bij de laatste handeling (ethics by user) staat het gebruik van de technologie centraal. Hierbij is het van belang dat iedereen voldoende kennis heeft om kritisch en verantwoord om te kunnen gaan met de technologie. Zowel de mensen die het ontwikkelen als de eindgebruikers. Zo zou er bij het gebruik van zelfrijdende auto’s nog steeds een rijbewijs kunnen bestaan, zodat nieuwe skills worden aangeleerd die bijvoorbeeld nodig zijn voor de communicatie met autonome systemen of wanneer er moet worden ingegrepen als het systeem daar om vraagt.

Deze aanpak zorgt voor een meer holistische benadering van ethiek. Zowel het gebruik en de gebruikers als de technologie worden in deze aanpak meegenomen. Het doet daarmee recht aan de dynamische praktijk van AI: de afstemming tussen mens en technologie is een continu proces. Het is niet óf de mens óf de technologie die alle beslissingen neemt. Ze geven elkaar wederzijds vorm. De beperking van deze aanpak is echter dat er wordt gesuggereerd dat de technologie zich hoe dan ook zal ontwikkelen en dat we ons er dus maar beter aan kunnen toevertrouwen. Maar de vraag óf we AI in bepaalde contexten moeten gaan inzetten blijft onverminderd relevant. We moeten AI niet zien als een doel op zichzelf, maar als een middel om een bepaald doel te bereiken. De vraag of AI dan wel het beste middel is om dat doel te bereiken mag niet worden overgeslagen. We moeten onszelf dus blijven afvragen wat voor samenleving we willen zijn, gegeven alle technologische ontwikkelingen.

» AI is an Ideology, Not a Technology. «

— Jaron Lanier & Glen Weyl, Wired

Lonkend perspectief

Wanneer het over de toekomst van AI gaat wordt vaak gesuggereerd dat ethiek een rem is op innovatie en dat bijvoorbeeld Europa een keuze moet maken: of strenge regulering waardoor innovatie wordt belemmerd óf innoveren en aansluiting vinden bij Amerika en China. Volgens een rapport van PwC Nederland uit 2020 bestaat er een trade-off tussen strakke regelgeving en snelle innovatie. Met de ‘White Paper on AI’, waarin de Europese Commissie de ambitie uitspreekt om de ontwikkeling van AI te versnellen en tegelijkertijd strengere regulering aankondigt, zou Europa zowel op het gaspedaal, als op de rem drukken.

» Wie strenge regelgeving invoert, accepteert daarmee dat de ontwikkeling van AI aanvankelijk langzamer zal verlopen. «

— Mona de Boer, PwC Nederland

Er is echter ook een middenweg. Denk bijvoorbeeld aan de tuinbouw. Juist door regulaties zijn Nederlandse kassenbouwers enorm innovatief geworden. Zo innovatief zelfs, dat hun kassen als de meest duurzame van de wereld worden gezien. Nederlandse kassenbouwers zijn tegenwoordig dan ook in toenemende mate in het buitenland actief en dragen bij aan de realisatie van duurzame tuinbouwprojecten over de hele wereld. Ethiek hoeft dus geen anker te zijn dat je meesleept, maar kan juist een lonkend perspectief bieden voor innovatie.

Waarden verenigen

Trade-offs worden nog te vaak afgespiegeld als geforceerde binaire keuzes. Wil je dat de overheid alles van je weet, of wil je onveilig leven? Ook bij de inzet van tracking-apps tijdens de coronacrisis in 2020 leek dat het devies. Overal doken krantenkoppen en artikelen op over de trade-off tussen privacy en de volksgezondheid. Hierbij lijkt de focus gericht te zijn op het individu versus het collectief. Je wordt geacht je persoonlijke privacy op te geven voor het grote geheel. Er wordt hierbij echter ten onrechte vanuit gegaan dat dergelijke applicaties alleen werken als privacy volledig wordt opgegeven. Dat is niet het geval. De volksgezondheid kan worden gewaarborgd mét inachtneming van de privacy. Het is dan ook niet voor niets dat de Nederlandse overheid tijdens de nationale ‘appathon’ in 2020 heeft besloten de zeven ingebrachte apps niet te gebruiken, omdat ze niet voldeden aan de privacyrichtlijnen. Ook Apple en Google kondigden aan dat apps die gebruikmaken van locatiegegevens van gebruikers geen toegang krijgen tot de besturingssystemen van Apple en Google.

» Those who would give up essential Liberty, to purchase a little temporary Safety, deserve neither Liberty nor Safety. «

— Benjamin Franklin

Value Sensitive Design

Waarden kunnen dus verenigd worden in het ontwerp. Dit vormt het uitgangspunt voor Value Sensitive Design (VSD). Het ‘ontwerpen voor waarden’ biedt een alternatief denkpatroon om met innovatie om te gaan. Volgens Jeroen van den Hoven, hoogleraar Ethiek & Technologie aan de TU Delft, moeten we innovatie inzetten om waarden te bedienen en waardenconflicten op te heffen. Op deze wijze kunnen we verantwoord innoveren met AI. Je praat pas over trade-offs als ze in de praktijk daadwerkelijk ervaren worden. De uitdaging is dus om deze situaties te voorkomen door middel van design. Hiervoor moeten we omgevingen creëren waarbij we niet hoeven te kiezen tussen verschillende waarden, maar waarbij we waarden kunnen maximaliseren in relatie tot elkaar. Ja er zijn keuzes, maar met een goed ontwerp kun je ervoor zorgen dat de keuzes niet schaden.

» Ethiek is in belangrijke mate een ontwerpdiscipline en gaat over het verantwoord vormgeven van onze samenleving en leefwereld. «

— Jeroen van den Hoven, TU Delft
3.1

Een nieuwe kijk op ethiek