AI heeft geen stekker meer

Slotbeschouwing: ‘Leg niet alle verantwoorde­lijkheid bij de programmeur’

Door Rudy van Belkom

Er was veel kritiek op de ‘appathon’ die het ministerie van Volksgezondheid organiseerde om slimme technologieën te kunnen inzetten tegen de verspreiding van het coronavirus. Het proces zou te gehaast en te chaotisch zijn. In een pressure cooker moesten ontwikkelaars de laatste verbeterslagen in de tracking-apps doorvoeren. De resultaten waren volgens de betrokken experts onbevredigend. Geen van de ingebrachte apps voldeed aan de gestelde privacyrichtlijnen. Ethisch onverantwoord, zo klonk het eindoordeel.

Toch zit de echte kritiek wat mij betreft niet in de appathon zelf, maar in de wijze waarop we met z’n allen ethiek bedrijven. Nu ligt de eindverantwoordelijkheid onterecht (en wellicht onbedoeld) bij de programmeurs. We denken dat we alles met de verschillende ethische principes en richtlijnen hebben dichtgetimmerd, maar niets is minder waar. Dergelijke voorschriften zeggen namelijk niets over de wijze waarop waarden als privacy in wiskundige termen uitgedrukt moeten worden. Bij de ontwikkeling van artificiële intelligentie (AI) draait alles namelijk om statistiek. Slimme systemen moeten in staat zijn om zelfstandig patronen uit grote hoeveelheden data te halen en daarvan te kunnen leren. Naast het feit dat hierbij persoonsgegevens op straat kunnen komen te liggen, kan het systeem bepaalde groepen gebruikers onbedoeld benadelen door verkeerde interpretaties te maken op basis van deze data.

Het gaat in dat opzicht dus eigenlijk niet zozeer over privacy, maar over fairness. En de vraag is wat in dit geval eerlijk is vanuit een statistisch oogpunt. Willen we geen coronagevallen over het hoofd zien, of willen we geen mensen onterecht in quarantaine zetten? En wat als blijkt dat mensen in bepaalde postcodegebieden een hogere kans op besmetting hebben? Moeten deze variabelen dan meegewogen worden, of willen we toch dat iedereen gelijkwaardig wordt behandeld? De vraag is daarbij wat ‘eerlijk genoeg’ is. Welk percentage onnodige quarantainegevallen kunnen en willen we accepteren? De verschillende wiskundige definities van eerlijkheid blijken elkaar in de praktijk uit te sluiten. Dus als we dergelijke voorschriften niet kwantificeren zal een programmeur volgens de huidige benadering zélf een keuze moeten maken.

Wat we onder eerlijkheid verstaan is daarbij contextafhankelijk. Een aantal maanden geleden konden we het ons überhaupt niet voorstellen dat er mensen in quarantaine geplaatst zouden moeten worden. Daarbij zullen we waarschijnlijk anders oordelen als het over een onterechte gevangenisstraf gaat, in plaats van een relatief luxe quarantaine in eigen huis. Universele waarden zijn niet zo veranderlijk, maar onze normen wel. Dat maakt het niet alleen lastig, maar ook onverantwoord om principes en richtlijnen in AI-systemen te programmeren. Uiteindelijk moet het systeem zelf in staat kunnen zijn om morele afwegingen te maken. Dat klinkt eng, maar zonder een moreel intuïtief systeem is het bijna onmogelijk om AI op een ethisch verantwoorde manier in de praktijk toe te passen. De enige reden dat mensen met regels kunnen omgaan, is omdat we deze in de context kunnen vertalen naar gedrag. We moeten momenteel 1,5 meter afstand houden van elkaar. Maar als iemand zijn evenwicht verliest en van de trap dreigt te vallen, is het toch wel wenselijk dat ik die persoon zal opvangen als ik daartoe in staat ben.   We zouden daarom minder energie moeten steken in het opstellen van ethische richtlijnen en ons meer moeten bezighouden met het bouwen van systemen die in de context ethisch verantwoorde beslissingen kunnen nemen. Ethiek is bij uitstek een ontwerpvraagstuk. Naast programmeurs en ethici, moeten ook sociologen, psychologen, biologen en economen hieraan meewerken. Lukt ons dat niet? Dan moeten we wellicht in de toekomst geen AI-systemen meer willen inzetten. Of accepteren dat onze ethiek onethisch is.

Rudy van Belkom | Auteur en projectleider toekomstverkenning AI, Stichting Toekomstbeeld der Techniek

Slotbeschouwing: ‘Leg niet alle verantwoorde­lijkheid bij de programmeur’