Gastbijdrage

Compromissen rond betrouwbaarheid van AI

Maarten Stol | Principal Scientific Advisor, BrainCreators

Door Maarten Stol

In 2019 publiceerde de Europese Commissiede ‘Ethics Guidelines for Trustworthy AI’. Hierin staat een lijst van zeven eisen waaraan een AI systeem moet voldoen om ‘betrouwbaar’ genoemd te mogen worden centraal. Tussen aanhalingstekens, want ook al heeft iedereen een gevoel over wat betrouwbaarheid is, in het geval van geavanceerde technische systemen is de definitie moeilijk om exact te maken. Er zijn vaker zulke lijsten gemaakt (denk aan de Asilomar AI Principles), maar de Europese richtlijnen proberen het begrip ‘betrouwbaar’ zo volledig mogelijk te dekken en tegelijk de lijst overzichtelijk te houden. Dit zijn ze (inclusief Nederlandse duiding door mijzelf):

1. Human agency and oversight: De mens blijft de baas.
2. Technical robustness and safety: Veilig, in elke zin van het woord.
3. Privacy and data governance: Burgers houden controle over hun eigen data.
4. Transparency: De macht, en onmacht, van het AI systeem moet voor elke gebruiker inzichtelijk blijven.
5. Diversity, non-discrimination and fairness: Fatsoenlijke normen en waarden mogen nooit worden geschaad door het systeem.
6. Societal and environmental well-being: De belangen van de vrije maatschappij en het milieu mogen niet in het geding komen.
7. Accountability: Elke beslissing moet herleid kunnen worden naar zijn oorsprong, en in principe weerlegd kunnen worden.

De guidelines zijn er echter ook duidelijk in dat er fundamentele spanningen kunnen bestaan tussen sommige van deze eisen. En juist hierin zit de complexiteit van het vraagstuk. Even voorbijgaand aan de vraag hoe elk van de eisen apart zou moeten worden bereikt (technisch makkelijker gezegd dan gedaan), wil ik hier graag ingaan op de mogelijke interacties en trade-offs. Neem als eerste voorbeeld Safety vs. Accountability. Het gedrag van huidige AI systemen wordt grotendeels bepaald door data, meer dan door programmacode alleen. Het doel van Machine Learning is te pogen uit deze data automatisch een programma te leren dat beslissingen kan nemen in de algemene trend van de input data. Machine Learning is echter statistisch van aard en de beslissingen zullen daarom nooit echt 100% correct zijn. Lees: niet geheel veilig. Om toch zo dicht mogelijk bij 100% te komen worden steeds complexere systemen ontwikkeld. Door de aard van de techniek is het gevolg van deze toenemende complexiteit dat zulke systemen het karakter van een black-box krijgen. Dat wil zeggen dat, ook al zijn de beslissingen van goede kwaliteit, de herkomst van elke individuele beslissing minder toegankelijk wordt. Verklaarbaarheid wordt opgeofferd voor veiligheid. Safety vs. Accountability is een trade-off die met de huidige techniek nooit helemaal zal kunnen worden vermeden. Er zijn meer van zulke trade-offs. Privacy vs. Transparency: hoeveel moet de burger aan privacy opgeven om data te ontsluiten die AI-systemen inzichtelijk moet houden voor andere burgers? Human agency vs. Societal well-being: welke belangen wegen zwaarder, die van het individu of het collectief? Technical robustness vs. Environmental well-being: hoeveel energie mag het continu trainen en onderhouden van AI-systemen gaan verbruiken? Et cetera. Het lijkt daarom redelijk om aan te nemen dat we in de toekomst niet altijd alle pijlers van de guidelines tegelijk zullen kunnen waarmaken. In plaats daarvan zal de praktijk vooral beheerst worden door de noodzaak van het sluiten van compromissen. Hierin is een taak weggelegd voor zowel de industrie als de overheid. De industrie zal een bepaalde mate van verantwoordelijkheid op zich moeten nemen om de guidelines na te streven bij het uitrollen van AI-systemen in de maatschappij. En de overheid zal zich verder moeten buigen over wetgeving die deze ontwikkelingen in banen moet gaan leiden. Een ding staat vast, op het gebied van een ethisch gebruik van AI zal de toekomst niet zonder compromissen zijn.

Compromissen rond betrouwbaarheid van AI