Gastbijdrage

Begrip van de mens is belangrijk voor AI

Door Leendert van Maanen, Assistant professor Psychological Methods Department, Universiteit van Amsterdam

Het kraken van de geheime codeermachine Enigma tijdens de Tweede Wereldoorlog heeft ons veel geleerd over hoe mensen beslissingen nemen, maar laat ons ook zien waar computers en mensen (nog) sterk van elkaar verschillen. Het Duitse leger gebruikte de Enigma’s om berichten versleuteld te verzenden. Voor het beëindigen van de oorlog was het breken van die code dus van groot belang. Om die reden werd in 1942 de Britse wiskundige Alan Turing gevraagd zich over het breken van de code te buigen. Misschien wel zijn belangrijkste bijdrage hieraan was de ontwikkeling van een algoritme om te beslissen of twee onderschepte berichten van dezelfde Enigmamachine afkomstig waren. Het algoritme scande letter voor letter twee gecodeerde berichten en bepaalde voor elk letterpaar wat de kans was dat die door toeval op dezelfde plaats in de twee berichten stonden. Teveel van die toevalligheden was een aanwijzing dat de berichten door dezelfde Enigmamachine verstuurd waren en het algoritme telde al die kansen bij elkaar op om zo bewijs te verzamelen voor een van twee uitkomsten: óf de berichten kwamen van dezelfde machine (en in dat geval werden ze geselecteerd voor verdere handmatige decodering), óf ze kwamen van verschillende machines (en in dat geval werden ze verworpen).

Opvallend genoeg lijkt ditzelfde mechanisme door mensen gebruikt te worden om keuzes te maken. In een inmiddels klassiek artikel uit 2002 laten Joshua Gold en Michael Shadlen zien hoe de hersenen op dezelfde wijze informatie coderen als Turings algoritme dat bijna 80 jaar geleden deed. Het brein verzamelt over tijd bewijs voor de verschillende keuze-opties totdat er voldoende evidentie is om zich te committeren aan de meest waarschijnlijke optie. Het wiskundige principe dat ten grondslag ligt aan Turings algoritme wordt daarom vaak gebruikt om menselijk keuzegedrag te onderzoeken.

Wat opvalt als je keuzegedrag van mensen onderzoekt, is dat kiezen tijd kost en dat keuzes nooit exact hetzelfde zijn. Zelfs als de omstandigheden identiek zijn, kan het keuzeproces zich anders over de tijd ontvouwen. Een belangrijke oorzaak hiervan is dat sommige factoren die een keuze beïnvloeden onbekend zijn. Aandachtsprocessen, geheugenprocessen, emoties, sentimenten en context spelen allemaal een rol, waardoor het onmogelijk is precies te voorspellen hoe de keuze zich ontwikkelt.
De brokjes bewijs worden telkens op subtiel andere wijze gewogen, waardoor het keuzeproces steeds anders is. Dit lijkt fundamenteel te verschillen van AI-gestuurde keuzes, waarbij de duur van een keuzeproces geen rol speelt en de uitkomst eigenlijk vaststaat. De enige belemmering voor een onmiddellijke keuze is de snelheid waarmee informatie beschikbaar komt. Maar zolang die informatie (exact) hetzelfde is, zal ook de keuze gelijk blijven: computers hebben geen spanningsboog, stemmingswisselingen of sentimenten die van invloed zijn op hun gedrag. Als in de toekomst AI-systemen en mensen samen gaan werken, wordt het belangrijk om rekening te houden met de duur en variabiliteit van menselijke keuzes: de machine moet geduldig zijn met de grillige mens om goed te kunnen inschatten wat zij wil. Als we omgekeerd willen dat de mens de keuzes van de machine accepteert, dan is het noodzakelijk om – waar mogelijk – menselijke variabiliteit in AI in te bouwen, om op die manier de herkenbaarheid en acceptatie van de keuzes te vergroten.

Voor een betere interactie tussen mens en machine en voor toekomstige ontwikkelingen binnen AI is onderzoek naar mensen daarom paradoxaal genoeg van cruciaal belang. Precies omgekeerd aan hoe ooit het kraken van de Enigmacode bijdroeg aan meer inzicht in menselijke keuzes.  

Begrip van de mens is belangrijk voor AI