3.3

AI knows best

» Wie kan de toekomst van AI beter voorspellen dan AI zelf? «

Deze vraag stelde ik mezelf tijdens het onderzoek naar de impact van AI↓De meest dominante associatie met AI is machine learning. Uit onderzoek van de World Intellectual Property Organisation (WIPO) uit 2019 blijkt tevens dat machine learning de meest dominante AI-technologie is die in patentaanvragen is opgenomen. Binnen deze toekomstverkenning richten we ons daarom hoofdzakelijk op machine learning. >Hoofdstuk 1.1 op besluitvorming↓We willen graag geloven dat wij mensen rationele wezens zijn. Maar het besluitvormingsproces is grillig. Beeldvorming en ambities spelen naast feitelijke kennis een belangrijke rol. >Hoofdstuk 2.2 in de toekomst. Er is enorm veel geschreven over AI en de meningen lopen sterk uiteen. Alleen al over Neurale netwerken↓Artificiële neurale netwerken worden gebruikt binnen deep learning en zijn oorspronkelijk gebaseerd op het menselijk brein, waarbij neuronen laagsgewijs met elkaar verbonden zijn. >Hoofdstuk 1.1 zijn er meer dan 150.000 wetenschappelijke artikelen gepubliceerd. Het paradoxale gegeven hierbij is dat AI deze artikelen in theorie véél sneller kan analyseren dan dat ik dit als onderzoeker zelf zou kunnen. Dit inspireerde me om te gaan onderzoeken op welke wijze AI mij zou kunnen helpen bij mijn onderzoek. Ik ben daarom op zoek gegaan naar best practices waarbij AI is ingezet als analysetool voor onderzoek. 

Wat leert de data ons?

Naast de inzet van complexe AI-technieken kan ook een relatief eenvoudige word count ons al veel vertellen over de ontwikkelingsrichting van AI. Met name wanneer je dit afzet tegen de tijd. Dominante termen in wetenschappelijk onderzoek geven namelijk een hint welke technieken in opkomst zijn en meer invloed zullen gaan krijgen in de toekomst. AI-onderzoek wordt gekarakteriseerd door de plotselinge opkomst en ondergang van verschillende AI-technieken. Er is hierbij vaak veel concurrentie tussen verschillende benaderingen. Zo nu en dan is er daadwerkelijk sprake van een doorbraak, waar veel wetenschappers zich achter scharen. Momenteel is dat Deep learning↓Deep learning is een machine learning-methode die gebruik maakt van verschillende gelaagde artificial neural networks. >Hoofdstuk 1.1 . De vraag is echter of deze focus de komende jaren blijft of dat er een andere techniek momentum krijgt. Veel van de technieken die de afgelopen 25 jaar gebruikt zijn ontstonden in dezelfde periode, namelijk in de jaren ’50. Neurale netwerken kenden een sterke opleving in de jaren ’60 en een korte piek in de jaren ’80, maar was bijna uitgestorven totdat deep learning er in 2012 weer een nieuwe impuls aan gaf.

Het is daarom interessant om te kijken naar opkomende en stagnerende begrippen in wetenschappelijk onderzoek. MIT Technology Review selecteerde meer dan 16.000 wetenschappelijke publicaties van arXiv met het label ‘artificial intelligence’ uit de periode tussen 1993 en 2018 en analyseerde de gebruikte woorden. 

‘Word frequenty per 1000 words’ – Bron: MIT Technology Review

Dit gaf enerzijds de verwachtte inzichten, namelijk de shift van kennissystemen↓Een kennisgebaseerd systeem, of expertsysteem, gebruikt geprogrammeerde kennis van menselijke experts om een specifiek probleem op te lossen. >Hoofdstuk 1.1  naar machine learning↓Het gaat bij machine learning over een revolutie waarin mensen niet meer programmeren (als dit, dan dat), maar waarin machines zelf regels afleiden uit data. >Hoofdstuk 1.1  eind jaren ’90 en de opkomst van neurale netwerken in 2012. Maar ook minder voor de hand liggende ontwikkelingen, zoals het stijgende momentum voor Reinforcement Learning↓Reinforcement Learning gaat over leren door middel van trial and error. De voorbeelden worden hierbij niet vooraf gelabeld, maar het algoritme krijgt op basis van de resultaten achteraf feedback. >Hoofdstuk 1.1  vanaf 2015. Deze opleving is te danken aan het feit dat DeepMind’s AlphaGo in dat jaar de wereldkampioen in het eeuwenoude spel Go versloeg en getraind was aan de hand van reinforcement learning.

Wanneer je uitzoomt en kijkt naar de ontwikkelingsgeschiedenis van AI wordt er een patroon zichtbaar: elk decennium is er een andere techniek dominant. De verwachting is dat er vanaf 2020 weer een nieuwe techniek zal opkomen (of een oude techniek met een opleving). Helaas laat een analyse van begrippen niet zien welke techniek dat gaat zijn. Gebaseerd op expertvoorspellingen zal dit gaan over de combinatie van kennissystemen en deep learning. Het lijkt een kwestie van tijd voordat Deep reasoning↓Combinatie van deep learning en symbolic AI. Neurale netwerken zorgen ervoor dat het systeem op basis van patroonherkenning kan ‘zien’ en de symbolische programmering zorgt ervoor dat het systeem kan ‘redeneren’. >Hoofdstuk 3.1  als term zal opduiken in de literatuur.

AI onderzoekt AI

Het naar boven halen van de meest dominante begrippen in wetenschappelijke publicaties is natuurlijk zeer interessant, maar het geeft geen volledig beeld. Verschillende domeinen hanteren namelijk verschillende definities en benaderingen ten aanzien van AI. De wetenschap hanteert een ander perspectief dan de media, het onderwijs of de industrie. Daarbij is het handmatig analyseren van een grote hoeveelheid publicaties zeer tijdrovend en complex. Elsevier heeft voor haar AI-onderzoek in 2018 daarom AI-technieken ingezet om begrippen uit verschillende domeinen te analyseren én daarmee de resultaten te verfijnen.

Allereerst zijn relevante boeken, wetenschappelijke literatuur, online cursussen (MOOCS), patentaanvragen en nieuwsberichten geanalyseerd door gebruik te maken van onder andere Natural Language Processing↓Natural Language Processing gaat over de vaardigheid van een systeem om menselijke taal te begrijpen. Toepassingen vind je in chatbots, vertaalmachines, spamfilters, automatisch gegeneerde samenvattingen en zoekmachines. >Hoofdstuk 1.1  (NLP). Op basis van deze inzichten is een shortlist samengesteld van 800 keywords. Vervolgens zijn met behulp van deze keywords 6 miljoen publicaties geselecteerd uit Scopus, de database van Elsevier. Deze resultaten zijn echter niet representatief aangezien er ook documenten in de selectie zitten die weliswaar de begrippen bevatten, maar deze niet in een AI-context hanteren (zoals neural networks binnen de biologie). Er is daarom een supervised machine learning↓Supervised Learning gaat over het zorgvuldig samenstellen en vooraf labelen van trainingsdata. Het algoritme leert dan data te classificeren aan de hand van gelabelde voorbeelden. >Hoofdstuk 1.1 -techniek ingezet om de keywords te classificeren, variërend van een hoge, gemiddelde of lage relevantie. Op basis van deze classificatie zijn uiteindelijk 600.000 publicaties geselecteerd die het wetenschappelijke corpus van AI vormen. 

Op basis van de relevante keywords en publicaties zijn vervolgens met behulp van een unsupervised machine learning↓Unsupervised Learning gaat over algoritmen die leren om zelf naar clusters te zoeken in grote hoeveelheden ongelabelde data. Het algoritme gaat dan zelfstandig op zoek naar overeenkomsten in de data en probeert op deze wijze patronen te herkennen. >Hoofdstuk 1.1 -techniek clusters gemaakt. Hieruit zijn zeven dominante AI-onderzoeksgebieden voortgekomen:

> Search and Optimization
> Fuzzy Systems
> Natural Language Processing and Knowledge Representation
> Computer Vision
> Machine Learning and Probabilistic Reasoning
> Planning and Decision Making
> Neural Networks

Onderzoek in Machine Learning, Neural Networks en Computer Vision↓Computer Vision gaat over systemen die in staat zijn om informatie uit beelden te halen en deze zo te herkennen. >Hoofdstuk 1.1 kennen het grootste volume aan onderzoeksoutput en -groei. De clustering geeft tevens een kijkje in de verschillende domeinen. Zo zijn de keywords vanuit de industrie enorm verspreid over de verschillende onderzoeksgebieden, terwijl er hele specifieke keywords vanuit de wetenschap verschijnen in Neural Networks, keywords vanuit het onderwijs in Search and Optimization en keywords vanuit de media in Planning and Decision Making. Globaal gezien komen de minste keywords voort uit het mediadomein.

‘The AI research field clusters around seven main research areas’.
– Bron: Elsevier Analytical Services (2018)

Opvallend is dat er relatief weinig begrippen refereren aan ethische vraagstukken. Ondanks de aanwezigheid van AI in ons dagelijks leven en het groeiende besef dat AI mogelijk ethische dilemma’s gaat veroorzaken, is ethiek in relatie tot AI volgens de studie van Elsevier momenteel nog een relatief klein onderzoeksgebied. 

AI en de wisdom of the crowd

Een clustering van relevante onderzoeksgebieden geeft weliswaar een beter inzicht in de complexiteit van AI, maar een breder begrip van de woorden ontbreekt. Het bevat geen sentiment; het laat niet zien wat mensen van belangrijke keywords vinden en of ze positief of negatief tegenover de begrippen staan. In dit geval kan wisdom of the crowd uitkomst bieden. IBM ontwikkelde de Project Debater, een AI-systeem dat in 10 minuten 300 miljoen artikelen kan analyseren én op basis hiervan argumenten kan formuleren voor of tegen stellingen. Het systeem neemt het inmiddels op tegen professionele debaters. Het doel volgens IBM is om mensen te helpen bij het opbouwen van krachtige argumenten en het nemen van goed geïnformeerde besluiten. Dit systeem is tevens ingezet om het Project Debater – Speech by Crowd platform te ontwikkelen. Hiermee kunnen crowdsourced besluiten worden genomen. Op basis van opinies kan het systeem een overtuigende uiteenzetting geven van argumenten en zowel een pleidooi voor als tegen de stelling geven. Allereerst verzamelt het systeem de argumenten. Deze worden vervolgens geclassificeerd op basis van sentiment (voor of tegen) en beoordeeld op kracht (sterk of zwak). Overtollige begrippen worden vervolgens gefilterd en de argumenten worden daarna geclusterd. Op basis van deze clusters wordt aan de hand van een standaard structuur een narratief opgesteld. Een van de crowdsourced stellingen gaat over de vraag of de ontwikkeling van zelfrijdende auto’s moet worden stopgezet. 

–––––––––––––––––––––––––––––––––––––––––––––––––––––––––

We should stop the development of autonomous cars

35% pro

The topic of autonomous cars are complex and sometimes leads to tough discussions, for example when considering whether We should stop the development of autonomous cars. The following is an attempt to lay out a few major arguments in favor. 

Next, I will discuss three issues which explain why
We should stop the development of autonomous cars.
I will begin by claiming that autonomous car can cause accidents. I will also discuss issues related to the claim that self-driving cars introduce new, poorly understood safety risks. And finally I will elaborate
on how autonomous cars will cause many types of jobs
to disappear. 

About accidents. Autonomous cars will not have the capacity to determine what is the lesser evil in terms of an accident that can cause property damage or result in injuries to humans or animals. Until there is a legal framework covering insurance of and therefore remuneration of individuals affected by an accident involving autonomous cars, the development of autonomous cars should be stopped. There are no opportunities for a autonomous car to be distracted, which is a leading cause of collisions in the United States at present. Of the 62 accidents in California involving self-driving cars in autonomous mode over the last four years, the autonomous vehicle was only responsible in one case. Autonomous cars can be hacked and can cause massive crashes that would take thousands of lives. 

I also mentioned safety. Self-driving cars can be hacked just as any other computing device, which can compromise the safety of the riders in a variety of ways. Autonomous cars will create safety and liability issues as they cannot be 100% precise and accurate. Software updates to autonomous cars will have undesirable side effects on safety. Two recent deaths involving Uber and Tesla vehicles using driverless cars have raised the debate on safety to levels that threaten to significantly delay or derail adoption of the technology. Autonomous cars are a security risk because if they can be hacked they can be potentially weapons of destruction. They are a massive security risk since the technology necessary can be hacked and used to orchestrate large scale attacks. 

The last issue I mentioned was jobs. Autonomous cars will destroy the driver’s ed industry and DMVs, putting hundreds of people out of jobs. They will cause many types of jobs to disappear — taxi drivers, truckers, car dealers, driving schools and many more. They will cause many people to loose their jobs. 

That concludes my speech. I thank you for your time and wish you a safe drive home. 

65% Con

The topic of autonomous cars are controversial and sometimes leads to complex conversations, like when examining whether We should stop the development of autonomous cars. This text will consider a few major arguments against. 

Next, I will discuss three issues which explain why
We should continue the development of autonomous cars. I will try to convey that autonomous cars will greatly expand the freedom of elderly people. I will also show that autonomous cars will actually help alleviate traffic and road. And lastly I will talk about how autonomous cars are an important technology to improve safety on the road. 

Starting with old age. Autonomous cars would be so useful for the many, and increasing number, of elderly and disabled persons who cannot drive. Autonomous cars allows old people, kids, teenager and handicapped people to be mobile and thus extend their quality of life. Autonomous cars will help people who can’t drive, like children or elderly people. Autonomous driving will support the continued participation in the community of older people who live in remote communities and find driving too demanding as they age. Autonomous vehicles have the potential to enhance the mobility and independence of the disabled and elderly populations. 

Turning to roads. Autonomous cars will actually help alleviate traffic and road clog by forcing all cars to maintain a consistent speed and prevent man-made problems with merging and road rage that cause traffic. Autonomous cars will make roads safer because the cars will drive slower to precisely follow all traffic rules. Autonomous cars will increase national security by allowing the state to better monitor the roads. Modern cars are parked 96% of the time. Autonomous vehicles and car sharing would require less space on the road and free up more space for parks, recreational centres and housing in populated cities. Because people will need to look less for parking spaces, and since they can drop you off at your destination, find a parking spot after, and then pick you up when you’re done, then clearly autonomous cars eliminate problems with finding parking. 

Finally, technology. Development of autonomous cars will also boost the development of electric cars, since those two technologies are closely related. Autonomous cars are an important technology to improve safety on the road. 

I thank you for your time. Drive safely.

Voordelen en beperkingen

AI is in staat om in een korte tijd een grote hoeveelheid data te analyseren. Het classificeren en clusteren van dermate grote hoeveelheden publicaties is handmatig onbegonnen werk. Dominante begrippen in onderzoek geven aan waar de aandacht van wetenschappers naar uitgaat en waar hoogstwaarschijnlijk de doorbraken en toepassingen van de toekomst op gebaseerd zullen zijn. Door een breder begrip van taal aan de hand van Natural Language Processing kan informatie tevens voorzien worden van sentiment en geeft het een beter inzicht in gedachten en opvattingen. 

» AI in research is like Ctrl F on steroids. «


De inzet van AI bij onderzoek kan dus een krachtige tool zijn om informatie te classificeren en te clusteren. Toch sluipen er een aantal foutjes in. Zo staat er in het pleidooi van IBM’s Project Debater vóór het stopzetten van ontwikkelingen van de zelfrijdende auto een tegenargument (bij ‘about accidents’). Het interpreteren van informatie blijft vooralsnog mensenwerk. Zeker wanneer het gaat om uitspraken over de toekomst. AI blijft een geavanceerde vorm van statistiek↓AI is in de basis ‘gewoon’ wiskunde. Weliswaar een enorm geavanceerde vorm van wiskunde, maar het blijft wiskunde. Het is boven alles een middel om een optimalisatiedoel te bereiken. >Hoofdstuk 1.1 . Je kunt er veel mee automatiseren, maar de basisassumptie is dat de toekomst net zo zal zijn als het verleden. De data wordt immers uit dezelfde kansverdeling getrokken.

Cartoon over de data-afhankelijkheid van machine learning
– Bron: SMBC by Zach Weinersmith

AI is in staat om automatisch patronen te herkennen. Als je het specifiek genoeg maakt kun je daarmee voorspellen. Zo kun je een bepaald patroon uit het verleden vertalen naar het heden en extrapoleren naar de toekomst. Huizenprijzen laten zich bijvoorbeeld prima voorspellen als je de juiste parameters hebt. De toekomst van AI gaat echter over grote fundamentele veranderingen, waarbij dergelijke methoden niet goed werken. AI heeft nog geen theoretisch inzicht in hoe de wereld werkt en kan daardoor geen uiteenlopende toekomstscenario’s schetsen voor dergelijke complexe onderwerpen. 

» Men heeft de komst van deep learning ook niet zien aankomen door naar de papers van de voorgaande 10 jaar te kijken. «

–– Maarten Stol, BrainCreators

Met een combinatie van menselijk inzicht, analytics en machine learning kun je wel betere voorspellingen doen. Ook hier zie je dat het beroep van bijvoorbeeld een toekomstonderzoeker niet zomaar verdwijnt, maar dat het takenpakket wel degelijk verandert.

–––––––––––––––––––––––––––––––––––––––––––––––––––––––––

Conclusies en vooruitblik

De toekomst van AI hangt af van verschillende factoren en laat zich niet eenvoudig voorspellen. Het is niet alleen afhankelijk van technologische doorbraken, maar ook van heersende politieke en economische belangen én de kennis die we hebben over ons brein. Want voorlopig zijn we nog niet in staat om de wonderen van menselijke intelligentie volledig te ontrafelen. De verwachting is dat AI ons daar wel steeds meer bij zal gaan helpen. Het kan patronen in data vinden die wij zelf niet zouden zien. AI heeft eerder al planeten ontdekt die wij over het hoofd gezien hebben. Het is dan niet ondenkbaar dat het op vergelijkbare wijze met nieuwe inzichten komt over ons brein. Een handige tool is het sowieso. Want handmatig alle informatie doornemen is met de toenemende hoeveelheid data steeds minder haalbaar. IBM’s Poject Debater kan in 10 minuten 300 miljoen artikelen analyseren. Een vergelijkbare taak zou voor een mens meer dan 2000 jaar kosten.

Wanneer we menselijke intelligentie precies gaan benaderen blijft echter de vraag. Volgens sommige experts zullen we general AI al in 2029 bereiken, volgens anderen duurt het nog tot 2200. Dit neemt echter niet weg dat de meesten er wel in geloven dát het bereikt zal worden. Zoals Alan Turing in 1950 al voorspelde zal de doorbraak liggen in de benadering van hoe kinderen leren, namelijk een combinatie van kijken en praten. Hiervoor zullen de twee kampen van deep learning en formal logic elkaar moeten gaan vinden en samenwerken. Samenwerking lijkt sowieso het codewoord voor de toekomst van AI. Verschillende vakgebieden moeten gezamenlijk AI-systemen gaan bestuderen. AI-systemen zullen namelijk steeds meer autonoom acties ondernemen en keuzes maken. Dit maakt dat ze steeds meer als volwaardige spelers in de samenleving zullen gaan functioneren. Het gaat dus niet alleen over de technologische werking, maar ook over de psychologische, sociologische, economische en ethische consequenties. 

Deel II van deze reeks gaat daarom over de impact van AI. Welke sociaal-culturele implicaties heeft de ontwikkelingsrichting van AI voor besluitvorming en welke mogelijke toekomstscenario’s kunnen hierdoor uiteengezet worden? Er zijn namelijk verschillende toekomstbeelden mogelijk. Ook hier spelen verschillende belangen een rol. Wie gaat de machtsstrijd om werelddominantie in AI winnen, China of Amerika? Of toch Google of Amazon? Het hangt daarbij sterk samen met de relatie met de technologie die we voor ogen hebben. Moet AI menselijke arbeid gaan vervangen of gaat het ons ondersteunen? Worden het autonome wezens waarmee we samenleven of blijven het tools die wij bedienen? Dit hangt nauw samen met de stip die we op de horizon zetten. Blijft dit menselijke intelligentie, of benaderen we artificiële intelligentie als een nieuwe op zichzelf staande vorm van intelligentie? 

Aan de hand van de mogelijke toekomstscenario’s kunnen we onszelf vervolgens de vraag stellen welk scenario (of welke combinatie van elementen uit de verschillende scenario’s) het meest wenselijk is. In deel III gaan we daarom in op ethische vraagstukken die een rol spelen bij de impact van AI op besluitvorming in de toekomst.






3.3

AI knows best