Door Maria de Kleijn-Lloyd
Welke AI-toekomst willen we in Nederland? Een bijna onmogelijk te beantwoorden vraag. Want: wat is AI eigenlijk, welke mogelijke toekomstscenario’s zijn er en wie bepaalt op basis waarvan ‘wat we willen’? Het derde deel van het STT-drieluik ‘de toekomst van AI’ gaat over deze derde, normatieve vraag. Waarbij de inzet is om over dit vraagstuk een breed maatschappelijk debat aan te zwengelen. We krijgen namelijk allemaal met AI te maken: direct als gebruikers van apps, maar ook indirect doordat personen en instanties AI gebruiken. Denk aan de dokter die een scan algoritmisch laat analyseren om een diagnose te kunnen stellen. Dit is geen toekomstmuziek; veel is allang mogelijk. De impact is vandaag al groot en zal naar verwachting steeds groter worden. Daarom is het goed om nadrukkelijk aandacht te besteden aan de bijbehorende ethische en maatschappelijke keuzes.
Er wordt al veel werk verzet. De EU heeft met een ‘high level expert group’ de belangrijkste ethische AI-principes, zoals explainability en fairness, al uitgebreid beschreven. Maar daarmee zijn we er niet. Op het niveau van algemene principes is het namelijk relatief makkelijk om het met elkaar eens te zijn: natuurlijk willen we privacy, natuurlijk willen we eerlijke uitkomsten. In het denken over een vitale infrastructuur wordt ook wel gesproken over ‘feel good principles’. Natuurlijk zijn we het eens!
Het wordt pas spannend als we die principes gaan vertalen naar praktische toepassingen. Dan gaat het om twee uitdagingen. Ten eerste: het uitvoerbaar maken van het principe. Wat is bijvoorbeeld een transparant algoritme? Eentje waarvan de hele code – soms vele terabytes – is gepubliceerd, maar die alleen door een select groepje experts kan worden begrepen? Of eentje waarvoor een soort bijsluiter in lekentaal is geschreven met de belangrijkste ontwerpkeuzes, brondata, de werking en de bijwerkingen? Ten tweede: principes die in de uitvoering met elkaar botsen. Transparantie en privacy bijvoorbeeld. En ook hier is de context van belang: medische informatie is van een totaal andere orde dan Netflix-voorkeuren. Wie hakt de knoop door welk principe voorrang krijgt? We moeten met elkaar die spannende stap gaan zetten. Want ontwerpers van algoritmes maken deze keuzes al elke dag.
Dit voorwoord is geschreven middenin de ‘intelligent lockdown’ van de coronacrisis, april 2020. Voor degenen die somberen dat Nederland de boot mist met digitalisering & AI: onze fysieke infrastructuur (van kabels tot cloud) blijkt het aan te kunnen en ook de meeste consumenten en bedrijven schakelen met relatief weinig moeite over naar thuiswerken. We ontwikkelen allemaal heel snel nieuwe digitale vaardigheden. Maar misschien nog wel interessanter is dat we ook massaal via de media deelnemen aan de dialoog over algoritmes en apps. Bijvoorbeeld de ‘appathon’ die het ministerie van Volksgezondheid organiseerde omtrent de corona-app. Hoe maak je deze app zo dat die de privacy van burgers waarborgt, niet misbruikt kan worden én accuraat is? Kan dat allemaal tegelijk? En bedoelen we met accuraat dan ‘geen coronagevallen missen’ (geen false negatives) of ‘niemand onnodig in quarantaine’ (geen false positives)? Zo helpt de actuele situatie, hoe naar ook, ons om een aantal ethische keuzes in AI helder te krijgen. En we doen dat met 17 miljoen Nederlanders. Ik hoop dat we, geholpen door deze studie en vooral ook door de interactieve online onderdelen, deze dialoog gericht en breed verder kunnen voeren om hem te kunnen vertalen in praktische handvatten. Zodat we een AI-toekomst krijgen in Nederland die we niet alleen accepteren, maar ook echt kunnen omarmen.
Maria de Kleijn-Lloyd | Senior Principal, Kearney
Voorzitter denktank STT toekomstverkenning AI