2.3

Voordelen en beperkingen

In de zoektocht naar het benaderen van human level AI↓Oftewel Artificial General Intelligence (AGI). Deze vorm van intelligentie zou in staat moeten zijn om alle intellectuele taken uit te voeren die een mens ook kan uitvoeren. >Hoofdstuk 1.1 komen we steeds meer te weten over onszelf. De technologie vormt als het ware een spiegel. AI↓De meest dominante associatie met AI is machine learning. Uit onderzoek van de World Intellectual Property Organisation (WIPO) uit 2019 blijkt tevens dat machine learning de meest dominante AI-technologie is die in patentaanvragen is opgenomen. Binnen deze toekomstverkenning richten we ons daarom hoofdzakelijk op machine learning. >Hoofdstuk 1.1 maakt het daarbij mogelijk dat we experimenten kunnen uitvoeren omtrent intelligentie↓Intelligentie kan omschreven worden als een aaneenschakeling van verstandelijke vermogens, processen en vaardigheden, zoals kunnen redeneren en je flexibel kunnen aanpassen in nieuwe situaties. >Hoofdstuk 2.1 zonder dat we daarvoor mensen hoeven in te zetten. We kunnen dingen veel makkelijker uitproberen. Zo kunnen we onderdelen in een systeem plaatsen én ze er weer uithalen om te bekijken wat de effecten zijn. Bij mensen gaat dat niet zo gemakkelijk. Tegelijkertijd doet het ons beseffen dat we nog weinig weten over hoe intelligentie precies in ons brein werkt. 

Hetzelfde geldt voor de manier waarop wij besluiten maken. Het is geen eenduidig rationeel proces, het is irrationeel en veranderlijk. Wanneer we het afzetten tegen geautomatiseerde besluitvorming hebben we echter de neiging om strenger↓Uit onderzoek van onder andere de University of Penssylvania uit 2014 blijkt dat wanneer mensen een algoritme een kleine en betekenisloze fout zien maken, dat de kans dan groot is dat het vertrouwen volledig verloren gaat. Dit wordt door onderzoekers ook wel algorithm aversion genoemd. >Hoofdstuk 2.2 te zijn voor de technologie, dan voor onszelf. Immers, fouten maken is menselijk. De biases↓Aangezien we evolutionair zijn geprogrammeerd om zoveel mogelijk energie te besparen sluipen er wel wat ‘denkfouten’ in onze informatieverwerking. Deze denkfouten worden ook wel cognitive biases genoemd. >Hoofdstuk 2.2 in machines daarentegen vinden we onacceptabel. Toch stoppen we de vooroordelen er in veel gevallen zelf in.

» AI is een representatie van de werkelijkheid, niet van de wenselijkheid. «

Het gaat hoe dan ook om een kunstmatige vorm van intelligentie. Dus ook zonder de directe vergelijking met de werking van het menselijk brein te maken, is het interessant om te kijken naar de voordelen en beperkingen van de technologie. 

Voordelen

AI wordt nu al veelvuldig ingezet voor het verhogen van de efficiëntie en het verbeteren van voorspellingen en klantrelaties. Het helpt ons om betere besluiten te nemen door de verwerking van grote hoeveelheden informatie in een korte tijd. Ook wanneer we general AI↓Artificial General Intelligence zou in staat moeten zijn om alle intellectuele taken uit te voeren die een mens ook kan uitvoeren. >Hoofdstuk 1.1 nooit zullen realiseren, kunnen we alsnog enorm veel bereiken met narrow AI↓Artificial Narrow Intelligence is een vorm van AI die zeer goed is in het doen van specifieke taken. Denk hierbij aan schaken, aanbevelingen doen en het geven van kwantificeerbare voorspellingen. >Hoofdstuk 1.1 . De industrie loopt nu nog 10 jaar achter op wat er wetenschappelijk mogelijk is. We kunnen AI in dat opzicht vergelijken met de ruimtevaart. 

» De vraag of we ooit daadwerkelijk op Mars gaan wonen is niet zo relevant. Maar de verkenning heeft ons wel enorm veel opgeleverd. «

Verschillende innovaties die we in het aardse leven gebruiken komen voort uit ruimtevaartprogramma’s. Van het schokabsorberende effect van je Nike Air-schoenen en de antiaanbaklaag van je Tefal-pan, tot satellietcommunicatie en GPS-systemen van je mobiele telefoon. Het zijn allemaal spin-offs van technologieën die voor de ruimtevaart bedacht zijn. Zo zou de zoektocht naar human-level AI verschillende bruikbare innovaties kunnen voortbrengen, zonder dat human-level AI ooit bereikt wordt. 

1 – 0 voor de technologie

Een groot voordeel van machine learning↓Het gaat bij machine learning over een revolutie waarin mensen niet meer programmeren (als dit, dan dat), maar waarin machines zelf regels afleiden uit data. >Hoofdstuk 1.1 -technieken is dat één getraind algoritme in meerdere systemen geïntegreerd kan worden. Bijvoorbeeld bij de zelfrijdende auto. Je hoeft niet elke auto afzonderlijk te trainen↓Er wordt onderscheid gemaakt tussen drie vormen van leren: supervised learning, reinforcement learning en unsupervised learning. >Hoofdstuk 1.1 , ze kunnen slim opgeleverd worden. Ze leren daarbij van elkaar, waardoor het een cumulatief leereffect heeft. Bij menselijke chauffeurs moet ieder individu afzonderlijk getraind worden en rijlessen nemen. Een rijinstructeur kan daarbij maar één persoon tegelijkertijd in de praktijk trainen en de onderlinge ervaringen worden niet direct uitgewisseld. 

AI wordt tijdens het leerproces daarbij niet moe en klaagt nooit. Zelfs niet wanneer de stof enorm eentonig is of oneindig veel lijkt te zijn. Integendeel, zo heeft een algoritme het juist graag. Zo kan machine learning ons in potentie enorm helpen bij het ontdekken van bijvoorbeeld nieuwe medicijnen. Het ontwikkelen van medicijnen is nu nog een enorm tijdrovende en kostbare klus. Wetenschappers moeten oneindig veel combinaties van moleculen proberen om te achterhalen welke verbindingen zorgen voor stabiele moleculen die bruikbaar zijn voor medicijnen. De meeste pogingen falen. Er zijn wel 10⁶⁰ mogelijkheden denkbaar. Een algoritme kan met een grote rekenkracht, vierentwintig uur per dag en zonder tegenzin combinaties proberen. Dat kan enorm veel tijd en geld besparen. Én innovatie een boost geven. 

Algoritmen kunnen patronen herkennen die wetenschappers niet zouden zien. Enerzijds door de grote hoeveelheden data, maar ook omdat machines ‘Anders denken↓Een mens kan goed kijken, maar niet zo goed redeneren. Een computer kan goed redeneren, maar niet zo goed kijken. Juist wat wij intuïtief doen en weinig energie kost, is voor een computer complex en kost veel energie. En vice versa. Dit wordt ook wel Moravec’s paradox genoemd. >Hoofdstuk 2.1 ’. Algoritmen zouden bepaalde opties kunnen onderzoeken die wij als naïef zouden bestempelen, maar welke juist voor een doorbraak kunnen zorgen. Iets wat ook wel nodig blijkt te zijn. Uit onderzoek van Stanford University en MIT uit 2019 blijkt dat de productiviteit van onderzoek daalt. Met andere woorden, er zijn steeds meer onderzoekers nodig om tot vergelijkbare resultaten te komen. AI kan daarbij onderzoek opschalen en daarmee de productiviteit verhogen. 

‘New molecular drug entities’– Bron: Stanford University en MIT (2019)

Algoritmen worden daarnaast steeds beter in het herkennen van uitzonderingen. Wanneer een algoritme weet wat men verwacht te gaan zien, kan het dingen herkennen die daarvan afwijken. Zoals bijvoorbeeld bij ruimteverkenningen. Zo hebben onderzoekers van de University of Texas in 2019 twee nieuwe planeten ontdekt met behulp van deep learning-algoritmen. Hierbij werd gebruik gemaakt van ‘oude data’ uit archieven van NASA. Ook op het gebied van onder andere veiligheid en inspectie kan dit veel voordeel opleveren. 

» We don’t want to miss something just because we didn’t know to look for it . «

–– Kiri L. Wagstaff, NASA

De technologie kan daarnaast op plaatsen komen waar het voor mensen gevaarlijk is, zoals in oorlogsgebieden, bij een brand of in een kerncentrale. Voor die laatste toepassing heeft Guszti Eiben, hoogleraar in AI, een technologische revolutie ontwikkeld. Of beter gezegd, een technologische evolutie. Hij is in staat om robots als het ware te laten ‘voortplanten’, zodat ze kunnen evolueren tot de meest ideale vorm. Twee afzonderlijke robots zoeken elkaar op en wisselen informatie uit. Deze combinatie vormt de blauwdruk voor een nieuwe robot, die met een 3D-printer geprint kan worden. Een robot die in staat moet zijn om verouderde kerncentrales te verkennen moet daarvoor door de meest onmogelijke ruimtes kunnen kruipen. Door artificiële evolutie ontstaan er vanzelf robots die daar het beste toe in staat zijn.

» We openen hiermee de weg naar een geheel nieuw type evolutie: die van zelfstandig opererende machines. «

 –– Guszti Eiben

AI for the good

AI heeft de potentie om ingezet te worden om het leven van mensen niet alleen gemakkelijker, maar ook beter te maken. Zo kan AI ook voordat volledig autonome voertuigen hun weg vinden al bijdragen aan de verkeersveiligheid. Door middel van affective computing↓Affective Computing gaat over systemen die emoties kunnen opsporen en herkennen. >Hoofdstuk 1.1 kan AI emoties van autobestuurders lezen en interpreteren. Wanneer een bestuurder bijvoorbeeld tekenen van vermoeidheid toont, dan kan het systeem de bestuurder hierop wijzen en adviseren om bijvoorbeeld een kop koffie te gaan drinken bij het eerstvolgende tankstation. Zo kan AI dus ook een bijdrage leveren door in de auto te kijken, in plaats van alleen erbuiten. 

De inzet van autonomous delivery robots heeft op een campus van de George Mason University in de VS ervoor gezorgd dat studenten niet langer hun ontbijt overslaan. 88% van de studenten eet geen ontbijt, vaak als gevolg van een drukke ochtendplanning. De autonome bezorging draagt hierdoor bij aan een meer gebalanceerd voedingspatroon van de studenten. Dichterbij huis helpt het algoritme van de ‘Slim Stampen’ app scholieren bij het leren voor hun toetsen. Slim stampen is een adaptief overhoorprogramma dat zich aanpast aan de kennis en vaardigheden van de leerling. De applicatie zorgt ervoor dat een bepaald onderdeel precies op het juiste moment wordt aangeboden; net voordat een leerling het dreigt te vergeten. Wanneer een bepaald onderdeel te snel wordt aangeboden wordt het saai voor een leerling, maar wanneer het te laat wordt aangeboden vergeet de leerling het. Het systeem past de interne modellen na iedere test aan op basis van de correctheid van het gegeven antwoord en de snelheid waarop de vraag wordt beantwoord. Op deze wijze wordt het leerrendement sterk verhoogd. 

AI kan ook bestuurders helpen om beter geïnformeerde besluiten te nemen. Zo kan het publieke opinies nauwkeurig in kaart brengen en een betere afspiegeling geven van wat mensen daadwerkelijk bezighoudt. De wisdom of the crowd kan tevens worden ingezet om zwakke plekken in softwarebeveiliging te detecteren. Er is namelijk een plek waar bugs in systemen het allereerst gerapporteerd worden en 24 uur per dag geüpdatet wordt; Twitter. Onderzoek van Ohio State University uit 2019 toont aan dat het algoritme niet alleen in staat is om beveiligingsfouten te voorspellen, het blijkt tevens te kunnen voorspellen hoe hoog het risico is met een nauwkeurigheid van meer dan 80%. 

Beperkingen

AI heeft de afgelopen decennia grote sprongen gemaakt en is tot dingen in staat die we tien jaar geleden niet voor mogelijk hielden. Zo kunnen computers met behulp van projecten↓Deep learning is een machine learning-methode die gebruik maakt van verschillende gelaagde artificial neural networks. >Hoofdstuk 1.1 
naast beelden herkennen, deze ook voorzien van een beschrijving.

Vereenvoudigde weergave van het proces waarbij een afbeelding door neurale netwerken wordt herkend en wordt beschreven.

Het feit dat een AI-systeem een nooit eerder gezien beeld kan herkennen (op basis van gelabelde trainingsdata) en een beschrijving kan geven van de foto is weliswaar indrukwekkend, maar het betekent niet dat het systeem begrijpt↓Zelfs wanneer je alle kennis over de wereld in een computer programmeert, dan blijft de vraag of een computer daadwerkelijk begrip heeft van zijn handelen. Dit begrip wordt ook wel intentionaliteit genoemd. >Hoofdstuk 2.1 wat het beeld representeert. Het systeem weet niet wat het betekent.

» The system only knows they are labeled as such. We have a tendency to interpret this beyond what is given. «

 –– Eric Postma, Tilburg University

Afhankelijk van data

Een van de grootste beperkingen van AI is dat het afhankelijk is van grote hoeveelheden data. Bij deep learning wordt daarom ook wel gesproken over data-hungry neural networks↓Artificiële neurale netwerken worden gebruikt binnen deep learning en zijn oorspronkelijk gebaseerd op het menselijk brein, waarbij neuronen laagsgewijs met elkaar verbonden zijn. >Hoofdstuk 1.1 . Dit maakt dat de technologie niet goed is in randgevallen, waarbij weinig data beschikbaar is. Zo kan een zelfrijdende auto tijdens Halloween compleet van slag raken wanneer er een kind verkleed als spook de straat oversteekt. Vaak zijn datasets ook niet volledig. Uit onderzoek van het Georgia Institute of Technology uit 2019 blijkt dat zelfrijdende auto’s minder nauwkeurig zijn bij het detecteren van voetgangers met een donkere huidskleur. Beeldherkenningssystemen zijn daarnaast heel gemakkelijk voor de gek te houden. Zo schijnt het facial recognition system van de iPhone X de gezichten van gebruikers niet te herkennen wanneer ze net wakker zijn geworden. Zorgelijker wordt het wanneer het om systemen gaat die worden ingezet bij het diagnosticeren van bijvoorbeeld huidkanker. Door een paar pixels te veranderen wordt de diagnose compleet anders. AI-systemen zijn daarbij vrij inflexibel. Ze zijn weliswaar in staat om zichzelf te leren schaken en grootmeesters te verslaan, maar wanneer je één spelregel verandert moet het algoritme helemaal opnieuw beginnen met leren. 

Data heeft daarbij geen eeuwig leven (ook al denken we vaak van wel) Het is vergankelijk. De levensduur van een hard drive is beperkt en ook een datacenter is kwetsbaar: denk aan een aardbeving of vloedgolf. Daarnaast wordt er gewaarschuwd voor zonnestormen, die op aarde geomagnetische stralingen veroorzaken en de elektriciteits- en communicatienetwerken langdurig kunnen platleggen. De cloud lijkt soms ontastbaar, maar bedrijven als Google bouwen gigantische datacentra met zo’n 900.000 servers. 

Verder zijn de formaten van de opslagmedia en de afspeelapparatuur vergankelijk. Evenals de software waarmee we bestanden maken en openen. Er zijn daarnaast ook gevaren vanuit cybercrime. Systemen kunnen gehackt worden en op deze wijze platgelegd worden. Doordat technologieën onderling steeds meer met elkaar interacteren wordt het risico dat de continuïteit van systemen in gevaar komt alsmaar groter. En als data de nieuwe olie is, dan zijn satellieten de nieuwe pijpleidingen. Naast satellieten zwerft er ook een hoop puin rondom de aarde, zoals raketonderdelen en afgedankte satellieten. In totaal meer dan 29 duizend stuks groter dan tien centimeter, die samen ruim acht miljoen kilo wegen. Deze toenemende space waste vormt een steeds realistischer gevaar voor ons dataverkeer. Wanneer deze in botsing raken met onze satellieten dan kan het zomaar zijn dat Facebook, WhatsApp en Instagram in een keer niet meer werken.

Computers zijn daarnaast enorme energieverbruikers. Zo kosten dertig Google searches net zoveel energie als het opwarmen van een liter water. Het menselijk brein verbruikt slechts twintig watt aan energie, terwijl supercomputers als IBM’s Watson megawatts aan energie verbruiken (1 megawatt = 1.000.000 watt). De verwachting is dat de zelfrijdende auto meer energie gaat verbruiken voor het rekenwerk, dan voor het daadwerkelijk voortbewegen. 

» Intelligentie per kilojoule zou een goede uitdrukking voor intelligentie kunnen zijn. «

 –– Max Welling, UvA

Be careful what you wish for

In 540 voor Christus wenste Koning Midas dat alles wat hij aanraakte in goud zou veranderen. Hij stierf eenzaam en uitgehongerd, omdat ook zijn eten en geliefden in goud veranderden. Bij het formuleren van zijn doel dacht hij niet goed na over de gevolgen. Dit wordt ook wel het Value Alignment Problem (VAP) genoemd. Zo zou een zelfrijdende auto bij de opdracht ‘breng me zo snel mogelijk naar het vliegveld’ met 300 kilometer per uur dwars door het weiland kunnen scheuren. Zo snel mogelijk betekent objectief gezien namelijk letterlijk zo snel mogelijk. Een machine kan zo doelgedreven zijn, dat de resultaten niet overeenkomen met wat we willen. Er zijn al ontwikkelingen gaande waarbij machines worden geprogrammeerd om all means necessary in te zetten om een doel te bereiken, dus bijvoorbeeld ook liegen. Zo is Facebook erin geslaagd een chatbot te ontwikkelen die geleerd heeft om te onderhandelen bij de aankoop van onder andere boeken. Op basis van menselijke conversaties heeft de chatbot het principe van misleiding weten te meesteren. Zo gaf de chatbot aan dat het interesse had in een bepaald object dat voor hem geen waarde had, om deze vervolgens uit te ruilen voor een betere deal op hetgeen het echt wilde hebben. Theoretisch gezien zou een intelligente machine die geprogrammeerd is om zoveel mogelijk paperclips te produceren álles in werking kunnen stellen om dat doel te bereiken. Nick Bostrom filosofeert in het boek Superintelligence↓Artificial Super Intelligence (ASI) kan bereikt worden wanneer AI het kunnen van het menselijk brein op alle mogelijke domeinen overstijgt. >Hoofdstuk 1.1 dat de machine dan alles wat de productie belemmert, uit de weg zal ruimen. Zelfs de mens, want die draagt immers niet bij aan de productie van paperclips. 

Je zou kunnen filosoferen dat een dermate intelligente machine dan zelf ook wel kan bedenken dat dit niet in lijn is met het doel, maar voor een algoritme is alle data in de basis gelijkwaardig. Dat levert bijvoorbeeld bij YouTube problemen op met ongewenste aanbevelingen. Wanneer mensen video’s met racistische content bekijken en liken, dan zullen zij steeds meer vergelijkbare content getoond krijgen. De aanbevelingssystemen van YouTube zijn verantwoordelijk voor 70% van de totale tijd die gebruikers op de site doorbrengen. Dit leidt tot de zogenaamde filter bubble. Mensen krijgen dan geen informatie meer te zien die hun eigen standpunt tegenspreekt, waardoor mensen geïsoleerd raken in hun eigen ‘luchtbel’. Dit leidt tot een eenzijdig wereldbeeld en kan polarisatie vergroten en een sterke invloed hebben op bijvoorbeeld verkiezingen. Dit maakt dergelijke mediaplatforms enorm machtig. 

» We embed our values
in algorithms. «

 –– Cathy O’Neil 

Om dergelijke algoritmen te kunnen programmeren moet je bepalen wat een succesvolle uitkomst is. Maar wie bepaalt wat succesvol is? Bijvoorbeeld een algoritme die op basis van ingrediënten bepaalt wat je kunt koken: dan is de uitkomst afhankelijk van degene die bepaalt wat succes is. De moeder die wil dat haar kinderen groenten eten? De kinderen zouden ongetwijfeld iets anders als succes definiëren. Nu ligt de vraag wat een succesvolle uitkomst is nog in de handen van een zeer kleine groep mensen.

AI for the bad

De geschiedenis leert ons dat technologische innovaties niet alleen voor het goede ingezet worden. Denk bijvoorbeeld aan kernenergie. De potentie van AI kan dus ook misbruikt worden. Niet de machine zelf, maar de programmeur kan slechte intenties hebben. Uit onderzoek van Stanford University uit 2018 blijkt dat neurale netwerken in staat zijn om met een nauwkeurigheid van 91% de seksuele geaardheid van mensen af te lezen aan de hand van afbeeldingen van gezichten. Wat als dit wordt toegepast in een regime waar homoseksualiteit wordt afgekeurd? Met behulp van de technologie kan een totalitaire staat gecreëerd worden; Big Brother is watching you. Zo rolt China stap voor stap een ‘sociaal kredietsysteem’ uit. Chinese burgers krijgen op basis van hun gedrag een bepaalde score. Op basis van deze score kunnen mensen op een zwarte lijst worden geplaatst en allerlei (voor)rechten verliezen, zoals de mogelijkheid geld te lenen of naar het buitenland te reizen. In 2018 werden al 23 miljoen Chinezen verboden een trein- of vliegticket te kopen. 

Wanneer je deze gedachte verder doorvoert kan het zogenaamde singleton principe ontstaan. Filosoof Nick Bostrom beschrijft een singleton als een hypothetische wereldorde waarin slechts één besluitvormingsorgaan bestaat. Mogelijke bevoegdheden zijn het vermogen om elke bedreiging (intern of extern) voor het eigen bestaan ​​en suprematie te voorkomen, plus het vermogen om effectieve controle uit te oefenen over belangrijke kenmerken binnen het domein (zoals belastingheffing).
De vraag blijft of een machine naast intelligente, ook wijze besluiten kan maken. Technologie heeft in principe geen moraal; ze geeft enkel de beste reactie gebaseerd op het verleden. En in hoeverre kan de technologie inschatten of een bedreiging daadwerkelijk reëel is? Het wordt steeds lastiger om echt en nep van elkaar te onderscheiden. Met behulp van AI kun je iemand dingen laten zeggen of doen die hij of zij in werkelijkheid nooit gezegd of gedaan heeft. Deze techniek wordt ook wel deepfake genoemd, een combinatie van de woorden deep learning en fake. Een bekend voorbeeld is de gemanipuleerde video van Barack Obama. 

» We’re entering an era in which our enemies can make anyone say anything at any point in time. «

 –– Barack Obama’s deepfake

Met behulp van de deepfake software kunnen video’s beeld voor beeld geanalyseerd worden. Op deze wijze leert de software wat de omvang en vorm van een gezicht is, wat de verhouding is tussen de ogen, mond en neus, en hoe het gezicht beweegt wanneer er gepraat wordt. Ook stemmen kunnen worden nagemaakt. Op basis van dit model ontstaat een digitale versie van een persoon die je vervolgens alles kunt laten zeggen wat je wilt. Dergelijke software wordt steeds beter én steeds meer publiek toegankelijk.

Gebrek aan diversiteit

Niet alleen op het gebied van data, maar ook binnen de teams die aan AI-ontwikkelingen werken is er nog weinig sprake van diversiteit. In 2019 lanceerde Stanford University een instituut met als doel om onder andere het gebrek aan diversiteit in de industrie aan te pakken; The Institute for Human-Centered Artificial Intelligence (HAI). Van de 121 faculteitsleden die aanvankelijk werden aangekondigd, waren er meer dan 100 wit en het merendeel man. Dit wordt ook wel AI’s sea of dudes of white guy problem genoemd. 

In 2019 richtte Google een ethische raad op om feedback te krijgen op de AI-projecten van het bedrijf; The Advanced Technology External Advisory Council (ATEAC). Binnen vier dagen werd de raad opgeheven. Bijna duizend Google-medewerkers, academische onderzoekers en andere sleutelfiguren uit de tech-industrie hebben een brief ondertekend, waarin ze protesteerden tegen de samenstelling van de raad. Met name de aanstelling van Kay Coles James, president van de Heritage Foundation, werd met veel ongenoegen ontvangen. De Heritage Foundation is een denktank die onder andere heeft geprotesteerd tegen de bescherming van LGBTQ-rechten.

Volgens Rediet Abebe, computer science researcher bij Cornwell University en oprichtster van Black in AI dat zich inzet voor de inclusie van zwarte onderzoekers in de industrie, is er te weinig samenwerking tussen verschillende academische onderzoeksgebieden. AI-onderzoek zou nog te veel gedomineerd worden door computer scientists. Met name de visie vanuit de sociale en humanitaire wetenschappen wordt nog te weinig meegenomen. AI heeft namelijk impact op alle facetten van het leven. 

–––––––––––––––––––––––––––––––––––––––––––––––––––––––––

Conclusies en vooruitblik

Heel veel dingen zijn te reduceren tot een formule met een succesvolle output, zelfs kunst, muziekcomposities en grappen. Het blijft echter narrow en specialistisch. En hoewel deze toepassingen steeds krachtiger en indrukwekkender worden, kun je je afvragen of dit daadwerkelijk intelligentie is. We noemen onze mobiele telefoons niet voor niets smartphones en geen intelligent phones. Laat staan wise phones. Hetzelfde geldt voor steden, we noemen ze smart cities. Intelligent zijn is iets anders dan slim zijn. Mensen kunnen goed functioneren in een nieuwe omgeving, ze kunnen generaliseren, hebben een intuïtief begrip van natuurwetten en causaliteit en houden moeiteloos rekening met de psychologische en sociologische context. Daarin loopt de ontwikkeling van AI nog tegen een muur en de verwachting is dat deze muur met deep learning niet omvergeworpen wordt. Het menselijk brein heeft dan ook een evolutie van miljoenen jaren moeten doorlopen om zo ver te komen. Waarom verwachten we van AI dan wonderen? Ook leren kost tijd; je kunt een kind van 1 jaar niet in een auto laten rijden. En als een kind zijn eerste woordje zegt zijn we dolblij, maar het kind heeft dan ook nog geen begrip van wat hij zegt. Leren gaat met vallen en opstaan. 

Tegelijkertijd zijn de meeste begrippen die we onszelf toekennen, zoals intelligentie maar ook bewustzijn en vrije wil, niet onomstreden. We weten niet goed hoe het precies werkt en kunnen filosofisch gezien nauwelijks een onderscheid maken tussen onze drijfveren en de doelen die we machines meegeven. Toch blijft het nastreven van menselijke intelligentie met AI als stip op de horizon staan. Wanneer we menselijke performances verwachten van machines, dan lijkt het erop dat we ook de menselijke eigenschappen ervan moeten accepteren. Menselijke uitleg is namelijk ook twijfelachtig. Dat is geen neurologisch verhaal, waarbij je onder de motorkap kunt kijken. Het is een reconstructie achteraf. 

» We verwijten de computer menselijke trekjes. «

–– Patrick van der Duin, STT

Dit is overigens geen vrijbrief om de controle los te laten. Transparantie van het proces moet gewaarborgd blijven. Evenals de uitleg. Echter zullen we hoogstwaarschijnlijk wel moeten accepteren dat de uitlegbaarheid subjectief zal blijven en niet altijd volledig herleidbaar is. Daarnaast blijft het vraagstuk omtrent aansprakelijkheid een grote uitdaging. 

Vanuit dat perspectief is het veel interessanter om te kijken naar de wetmatigheden van intelligentie. Bij veel technologische innovaties zijn er pas écht stappen gemaakt toen we zijn gestopt met het letterlijk proberen te kopiëren van fysiologische mechanismen. Een vliegtuig fladdert niet met zijn vleugels en een duikboot zwemt niet. Als we de wetmatigheden van intelligentie beter kunnen begrijpen zullen er grote stappen gemaakt kunnen worden. Misschien niet in het vervangen van menselijke intelligentie, maar juist in het aanvullen ervan.

De vraag blijft hoe de technologie zich in de toekomst zal gaan ontwikkelen. Wat zeggen de experts? En kan AI ons daarbij helpen? Het is hierbij van belang om niet alleen naar de technologie te kijken, maar ook naar de belangen die de ontwikkelingsrichting beïnvloeden, zoals economische en politieke belangen. 

2.3

Voordelen en beperkingen