1.1

Hoe werkt AI?

 

Voordat we de werking van AI kunnen beschrijven is het van belang om het begrip eerst goed te definiëren. AI wordt vaak een General Purpose Technology (GPT) genoemd. GPT’s zijn technologieën die een volledige economie drastisch kunnen veranderen. Ze hebben de potentie om samenlevingen te ontwrichten door hun impact op bestaande economische en sociale structuren. Denk aan elektriciteit, automatisering en het internet. Toch is AI feitelijk geen technologie. Het is de uitkomst, of het doel, van een ecosysteem van verschillende technologieën. Er kan grofweg onderscheid worden gemaakt tussen drie overkoepelende technologieën die AI mogelijk kunnen maken:

> Whole brain emulation (WBE), ook wel mind upload genoemd. WBE is het hypothetische proces van het scannen van het volledige menselijk brein, inclusief het langetermijngeheugen, om deze vervolgens te kopiëren naar een computer. Theoretisch gezien zou een computer dan een simulatiemodel van de informatieverwerking van het brein kunnen uitvoeren en in essentie op dezelfde wijze kunnen werken als het originele brein en daarmee bewustzijn kunnen ervaren. The Human Brain Project (HBP), een van de twee grootste wetenschappelijke projecten ooit gefinancierd door de Europese Unie, werkt hier al vanaf 2013 aan samen met 500 wetenschappers en meer dan 100 universiteiten, ziekenhuizen en onderzoekscentra. 

> Brain-computer interfaces (BCI) is een technologie waarbij hersensignalen gemeten en gedigitaliseerd kunnen worden. Een computer kan deze vervolgens classificeren en omzetten in acties. Op deze wijze is het bijvoorbeeld mogelijk om robotprotheses aan te sturen.

> Machine Learning (ML) gaat over het creëren van algoritmen die kunnen leren van data. Vaak zeggen mensen dat een computer alleen doet waarvoor deze geprogrammeerd is, maar dat is niet altijd meer het geval. Het gaat bij machine learning over een revolutie waarin mensen niet meer programmeren (als dit, dan dat), maar waarin machines zelf regels afleiden uit data. Een machine learning-algoritme is in staat om zelfstandig patronen uit data te halen, modellen te bouwen en voorspellingen te geven over uiteenlopende zaken zonder voorgeprogrammeerde regels. 

Wanneer mensen het over AI hebben, dan hebben ze het in de meeste gevallen over toepassingen op het gebied van machine learning. Dit is zonder twijfel de meest dominante associatie met AI. Uit onderzoek van de World Intellectual Property Organisation (WIPO) uit 2019 blijkt tevens dat machine learning de meest dominante AI-technologie is die in patentaanvragen is opgenomen. Binnen deze toekomstverkenning richten we ons daarom hoofdzakelijk op machine learning. Dit lijkt een beperking, maar dat is het zeker niet. De toepassingen van dit vakgebied zijn bijna oneindig breed en dermate complex dat zelfs de AI-experts het niet met elkaar eens zijn. 

Een dominant begrip binnen dit veld is momenteel Deep Learning (DL). Deep learning is een machine learning-methode die gebruik maakt van verschillende gelaagde artificial neural networks. Deze algoritmen zijn geïnspireerd op de wijze waarop neuronen in ons brein werken. Deep learning-algoritmen kunnen uit de voeten met grote hoeveelheden ongestructureerde data en worden veelvuldig ingezet bij toepassingen op het gebied van onder andere beeldherkenning. Deep learning is de belangrijkste driver van de successen van AI in de laatste decennia en grotendeels verantwoordelijk voor het ontstaan van de recente ‘hype’ rondom AI.

Cousins of Artificial Intelligence’ – Bron: Towards Data Science (2018)

Dé AI-technologie bestaat dus niet. AI bestaat uit een combinatie van technologieën. Je kunt grofweg stellen dat er minimaal drie componenten nodig zijn, namelijk:

  • Data: ontwikkeling is big data
  • Algoritmen: ontwikkeling is deep learning
  • Rekenkracht: ontwikkeling is Graphics Processing Unit (GPU)


De ontwikkeling van deze componenten hangt sterk met elkaar samen. Door de toegenomen beschikbaarheid van data zijn deep learning-algoritmen (die in de jaren ’60 al bedacht zijn) steeds relevanter geworden. Hiervoor zijn processoren nodig die niet alleen sequentiële, maar ook parallelle berekeningen kunnen maken (GPU’s). 

De definitie van AI

Het overkoepelende karakter van AI maakt dat het begrip zich niet eenvoudig laat definiëren. Dit blijkt ook uit het advies van het Europees Economisch en Sociaal Comité (EESC). Rapporteur Catelijne Muller stelt in het rapport uit 2017 dat er geen eenduidig geaccepteerde, vastomlijnde definitie van AI is en dat het een containerbegrip is voor een groot aantal (sub)domeinen. De Nationale AI-cursus, een gratis online cursus voor alle Nederlanders, doet een poging het begrip te definiëren: 

“AI zijn intelligente systemen die zelfstandig taken kunnen uitvoeren in complexe omgevingen en eigen prestaties kunnen verbeteren door te leren van ervaringen.”

Een belangrijke voorwaarde is dus dat het systeem zelfstandig moet kunnen leren. Het is geen statisch model; het kan zich aanpassen aan de praktijk. Met andere woorden, het moet steeds beter worden naarmate het vaker gebruikt wordt. Toch lijkt niet iedereen zich te kunnen, of willen associëren met het begrip AI.

» AI is wat AI’ers doen. « 

–– Leendert van Maanen, UvA

Sommige wetenschappers en ontwikkelaars identificeren zich heel sterk met de term AI, terwijl anderen dat beslist niet willen. In de basis doen ze echter hetzelfde werk. Dit zegt dus veel over de reputatie van het begrip ‘AI’. AI is een beetje een ongelukkig begrip. De term wordt enerzijds overal opgeplakt (terwijl het soms ‘simpele’ statistiek is) en soms wordt het er juist vanaf gehaald (bijvoorbeeld bij navigatiesystemen). Dit wordt ook wel the AI effect genoemd. We kennen het eigenschappen toe en rekenen het erop af, nog voordat het zich heeft kunnen bewijzen. Tegelijkertijd nemen we het eigenschappen af als deze bewezen zijn. 

» AI is whatever hasn’t been done yet. «

–– Larry Tesler, 1970

Jarenlang hebben we gedacht dat er voor schaken een hoogstaande, en vooral menselijke, vorm van intelligentie noodzakelijk is. Het inzicht en intellect dat dit vereist zou niet zomaar door een computer geëvenaard kunnen worden. Totdat in 1997 IBM’s schaakcomputer Deep Blue de wereldkampioen schaken Garry Kasparov versloeg. Vanaf dit moment vinden we schaken niet intelligent meer. Het is ‘gewoon’ een formalisatie van mogelijke zetten en een computer met veel rekenkracht kan dit eenvoudig berekenen. Het is niet onmenselijk om onszelf een speciale rol in het universum toe te kennen. Het degraderen van AI-successen helpt ons om onze unieke positie te behouden. Zodra het mysterie is opgelost noemen we het liever automatisering, in plaats van intelligentie.

Het is daarom interessant om naar de verschillende benaderwijzen van AI te kijken. Stuart Russel en Peter Norvig maken in hun standaardwerk uit 2010, Artificial Intelligence: a modern approach, onderscheid tussen vier verschillende benaderwijzen: 

> Thinking Humanly 

De automatisering van denkprocessen die we associëren met menselijk denken, zoals leren, probleemoplossing en besluitvorming. 

> Acting Humanly

Het creëren van machines die handelingen verrichten waarvoor intelligentie nodig is wanneer ze uitgevoerd worden door mensen. 

> Thinking Rationally 

Het ontwikkelen van berekeningen en modellen die het mogelijk maken om te redeneren.

> Acting Rationally 

Het ontwerpen van artefacten die intelligent gedrag vertonen. 

Deze verschillende benaderwijzen onderstrepen de complexiteit van AI. Hierbij lopen de begrippen computers, machines en robots vaak door elkaar heen. Toch gaat het in de meeste gehanteerde definities van AI meer over de ‘mind’ dan om de ‘body’. Robotica en automatisering zijn niet per definitie AI. Daarom wordt er in deze toekomstverkenning duidelijk onderscheid gemaakt tussen AI en robotisering en richten we ons dus hoofdzakelijk op de software, tenzij anders vermeld.

De indeling van AI

Ondanks het feit dat er geen overeenstemming is omtrent de definitie van AI, wordt de indeling van AI wel breed gedragen. Er kan onderscheid gemaakt worden tussen drie verschillende ontwikkelingsniveaus van AI:

> Artificial Narrow Intelligence (ANI)

ANI is een vorm van AI die zeer goed is in het doen van specifieke taken. Denk hierbij aan schaken, aanbevelingen doen en het geven van kwantificeerbare voorspellingen. Ook de huidige toepassingen op het gebied van beeld- en spraakherkenning zijn narrow. Eigenlijk zijn alle toepassingen die we momenteel van AI kennen specialistisch. We zijn namelijk nog niet in staat om AI te ontwikkelen die een taak kan uitvoeren die zijn eigen domein overstijgt. Wanneer je een navigatiesysteem bijvoorbeeld vraagt om je veters te strikken zal deze niet in actie komen. 

> Artificial General Intelligence (AGI) 

AGI wordt ook wel human-level AI genoemd. Deze vorm van intelligentie zou in staat moeten zijn om alle intellectuele taken uit te voeren die een mens ook kan uitvoeren. Dit betekent naast bijvoorbeeld patronen herkennen en problemen oplossen ook het flexibel aanpassen in nieuwe omgevingen. Het is de stip op de horizon. Maar hoe verder we erin duiken, hoe meer we beseffen dat we geen goed beeld hebben van hoe menselijke intelligentie precies werkt. Experts↓Futurist Martin Ford interviewde voor zijn boek Architects of Intelligence 18 wereldwijd gerespecteerde experts op het gebied van AI. De voorspellingen wanneer general AI bereikt zal worden lopen uiteen van 2029 (11 jaar vanaf 2018) tot 2200 (182 jaar vanaf 2018). >Hoofdstuk 3.1 zijn het dan ook niet met elkaar eens. Volgens sommigen is general AI om de hoek, terwijl het volgens anderen nog bijna 200 jaar gaat duren.

> Artificial Super Intelligence (ASI) 

ASI kan bereikt worden wanneer AI het kunnen van het menselijk brein op alle mogelijke domeinen overstijgt. Dus ook op het gebied van wetenschap, creativiteit en sociaal gedrag. Ook al lijkt dit nog erg ver weg – we hebben AGI immers nog niet bereikt – zijn er wetenschappers die stellen dat de stap van AGI naar ASI betrekkelijk klein is. Zo zou een Seed AI, een vorm van AGI die zichzelf kan verbeteren door zijn eigen codes te herschrijven, voor een intelligence explosion kunnen zorgen. Oxford professor Nick Bostrom beschrijft in het boek Superintelligence; Paths, Dangers, Strategies hoe we deze explosie van intelligentie kunnen overleven. 

De werking van AI

Het idee van intelligente machines stamt al uit de jaren ’50. In 1950 schreef Alan Turing, sleutelfiguur in het breken van de Enigmacode van de Duitsers in de Tweede Wereldoorlog en grondlegger van de computer, een artikel over Computing Machinery and Intelligence. Een belangrijk inzicht hieruit, wat later ook overgenomen is in AI, is dat ons brein en onze mind zich op dezelfde manier tot elkaar verhouden als een computer tot een computerprogramma. Dit impliceert dat ons brein een informatieverwerkingssysteem is en dat denken een vorm van computatie, oftewel een wiskundige berekening is. Zijn uitgangspunt was dat je met een computer álles kunt berekenen en dus ook intelligent gedrag kan vertonen. Hiervoor introduceerde hij in hetzelfde artikel de zogenaamde Imitation Game, later bekend als de Turing Test. In plaats van de vraag of machines kunnen denken, stelt hij de vraag of machines intelligent gedrag kunnen imiteren. Een computer zou voor deze test slagen wanneer mensen niet weten of ze met een mens of een computer communiceren. 

» Denken is rekenen. «

–– Frank van Harmelen, VU

AI is in de basis ‘gewoon’ wiskunde. Weliswaar een enorm geavanceerde vorm van wiskunde, maar het blijft wiskunde. Het is boven alles een middel om een optimalisatiedoel te bereiken. Hierbij draait alles om beslissingen. Bijvoorbeeld bij de zelfrijdende auto: het doel is om veilig van A naar B te komen. Om dit te realiseren moeten er continu beslissingen genomen worden. Zo werkt het in een organisatie in principe ook. Vaak is het doel winstoptimalisatie. De ene keer is de oplossing deep learning, de andere keer volstaat een ouderwetse regressie­analyse. Wanneer je bijvoorbeeld als ijssalon je verkoop wilt optimaliseren, dan is het handig om je verkoop af te zetten tegen het weer. Je zult dan ongetwijfeld tot de conclusie komen dat het weer en de ijsverkoop samenhangen. Je kunt dan dus ook voorspellen dat er bij mooi weer meer ijs verkocht wordt. Is dit AI? Nee, maar het is wel een algoritme als je dat formaliseert. 

Een algoritme is dus een wiskundige formule. Het is een eindige reeks instructies die vanuit een gegeven begintoestand naar een vooraf bepaald doel leidt. Zo heeft Facebook er bijvoorbeeld baat bij dat de berichten van haar adverteerders geliked worden door gebruikers. Wanneer je dus vaak voetbalberichten liked, dan zal het algoritme steeds vaker vergelijkbare content op je timeline naar boven laten komen. Een neuraal netwerk is ook een wiskundige formule en dus ook een algoritme. In het algoritme van een neuraal netwerk zit een component waardoor het zelf patronen uit data gaat leren. 

AI heeft zich in de afgelopen decennia in verschillende richtingen ontwikkeld:

Good Old-Fashioned Artificial Intelligence (GOFAI)

In de eerste fase van AI, van 1957 tot eind jaren ‘90, lag de nadruk voornamelijk op symbolic representations.
Het uitgangspunt hierbij is dat ons brein een symbool­manipulator is en stapsgewijze processen volgt om voorstellingen van de wereld met berekeningen te ontleden. Deze benadering wordt daarom ook wel Symbolic AI genoemd. Er wordt hierbij gebruikt gemaakt van formal logic, oftewel als-dan regels. Dit betekent dat een computer in staat is om geldige afleidingen te maken uit kennis die de computer al bezit. Dus bijvoorbeeld als de computer weet dat A gelijk is aan B en ook dat B gelijk is aan C, dan moet de computer kunnen deduceren dat A gelijk is aan C. Het werd daarom ook wel een kennisgebaseerd systeem of expertsysteem genoemd, waarbij het systeem specifieke kennis van menselijke experts gebruikt om een specifiek probleem op te lossen. Deze vorm van AI was vooral gericht op high level cognition, zoals redenering en probleemoplossing. Dergelijke taken zijn voor mensen zeer moeilijk en men was daarom erg onder de indruk van deze vorm van AI. Schaken is hiervan een perfect voorbeeld. Schaken vindt namelijk plaats binnen een gekaderde wereld, je hebt geen algemene kennis nodig om de regels van schaken te begrijpen en je hoeft de schaakstukken niet te herkennen. Een abstracte representatie en brute rekenkracht zijn voldoende. Vanuit dat oogpunt was het geen schok dat Garry Kasparov in 1997 werd verslagen door IBM’s Deep Blue.

Machine Learning (ML)

Toen NASA eind jaren ‘90 met een computergestuurd voertuig Mars wilde verkennen, kwamen ze erachter dat deze niet op afstand bestuurd kon worden. De grote afstand zorgde namelijk voor vertraging in de communicatie. Zo ontstond de behoefte aan een autonoom voertuig dat zelfstandig obstakels en ravijnen kon ontwijken. NASA besloot daarom AI-wetenschappers in te schakelen. Zij hadden echter de grootst mogelijke moeite om dit probleem aan de hand van Symbolic AI op te lossen. Wanneer er veel verschillende situaties zijn waar een AI-toepassing voor kan komen te staan, is het bijna onmogelijk om voor al die verschillende situaties de regels in te bouwen in het systeem. Dit probleem wordt ook wel de explosion of the state action space genoemd. Er werd daarom vanaf de jaren ’90 naar andere benaderingen gekeken. Een belangrijke wetenschapper in deze ontwikkeling is Rodney Brooks. Hij schreef in 1990 het artikel Elephants Don’t Play Chess en introduceerde hierin de subsumption architecture. Hierbij zat de representatie niet in de robots, maar was de omgeving zelf de representatie waarin ze leerden te manoeuvreren. In plaats van het handmatig programmeren van duizenden regels, leerden machines om zelf regels af te leiden uit grote hoeveelheden data. 

Hierdoor ontstond een paradigmaverschuiving van Symbolic, naar Subsymbolic AI. Subsymbolisch betekent dat er niet langer regels zijn die in woorden zijn uit te drukken, maar dat het systeem van veel verschillende voorbeelden geleerd heeft wat de regels zouden moeten zijn. In deze nieuwe fase van AI, ook wel Nouvelle AI genoemd, lag de focus in tegenstelling tot de Symbolic AI op low level cognition, zoals perceptie en patronen herkennen. Dit vereist grote hoeveelheden data en training sets. Binnen machine learning zijn er verschillende manieren voor AI-systemen om te leren.
Er wordt onderscheid gemaakt tussen drie typen:

1: Supervised Learning gaat over het zorgvuldig samenstellen en vooraf labelen van trainingsdata. Het algoritme leert dan data te classificeren aan de hand van gelabelde voorbeelden. Wanneer je een algoritme bijvoorbeeld wilt leren om een auto te herkennen, dan kun je deze voeden met duizenden voorbeelden van auto’s met het label ‘auto’. Gelijktijdig zou je een groot aantal beelden zonder auto’s moeten labelen met ‘geen auto’. Het helpt om dan verwante beelden te gebruiken, zoals van een tractor en een bus. Wanneer het algoritme getraind is kan deze op basis van nieuwe beelden aangeven of het wel of geen auto is. Hetzelfde principe geldt voor teksten. Bijvoorbeeld spamfilters en vertaalmachines werken op basis van supervised learning.

2: Reinforcement Learning gaat over leren door middel van trial and error. De voorbeelden worden hierbij niet vooraf gelabeld, maar het algoritme krijgt op basis van de resultaten achteraf feedback. Wanneer het algoritme de juiste oplossing aandraagt krijgt deze een ‘beloning’. Het voordeel van reinforcement learning is dat het systeem processen kan aansturen. Zo wordt het vaak toegepast bij het trainen van spelsystemen, zoals schaakcomputers. Spelsituaties kunnen eenvoudig gesimuleerd worden in een computer en op hoge snelheid afgespeeld worden. Ook de software van zelfrijdende auto’s kan op deze wijze getraind worden.

3: Unsupervised Learning gaat over algoritmen die leren om zelf naar clusters te zoeken in grote hoeveelheden ongelabelde data. Het algoritme gaat dan zelfstandig op zoek naar overeenkomsten in de data en probeert op deze wijze patronen te herkennen. Vooraf wordt enkel een maat aangegeven waarmee de afstand tussen data samples gemeten kan worden. Het algoritme structureert de data zodanig dat data samples met een kleine afstand bij elkaar in een cluster terecht komen. Dus auto’s bij auto’s en katten bij katten. Unsupervised learning kan tevens op basis van gebruikersgegevens groepen mensen met vergelijkbare voorkeuren en eigenschappen clusteren. Veel aanbevelingssystemen, zoals de recommendations bij Spotify en Netflix, werken op deze wijze.

Deep Learning (DL)

Binnen machine learning is deep learning een veel­­­besproken methode. Deep learning is een modellering­methodiek waarbij neurale netwerken centraal staan.
Deze artifical neural networks zijn oorspronkelijk gebaseerd op het menselijk brein, waarbij neuronen laagsgewijs met elkaar verbonden zijn. Artificiële neurale netwerken zijn samengesteld uit gestapelde lagen van ‘knooppunten’ die met elkaar in verbinding staan.
Voordat een neuraal netwerk gevoed wordt met data, worden er random waardes tussen de 0 en 1 toegekend aan de verschillende knooppunten. Deze waardes representeren de intensiteit van de verbindingen. Wanneer het netwerk gevoed wordt met data wordt de intensiteit van de verbindingen door het netwerk gefinetuned. Deep learning werkt net als neuronen in het menselijk brein die bij specifieke signalen geactiveerd worden en informatie doorsturen. Hierdoor kan het netwerk bijvoorbeeld afbeeldingen van honden classificeren of clusteren.

Visualisatie van een artificieel neuraal netwerk

Er wordt onderscheid gemaakt tussen input layers, tussenliggende hidden layers en output layers. Bij de input wordt de afbeelding opgebroken in pixels. Verschillende layers zijn in staat om verschillende eigenschappen te herkennen. Op een niveau leert het systeem onderscheid te maken tussen allerlei soorten lijnen, strepen en vormen. Op een ander niveau leert het systeem om onderdelen te herkennen, zoals oren en ogen. Hierdoor kan het systeem verschillende beelden van elkaar onderscheiden. Deep learning is een tegenhanger van logisch redeneren en neigt meer naar een vorm van intuïtief leren. Het nadeel hiervan is dat de overwegingen die binnen het systeem gemaakt worden een stuk minder goed te herleiden zijn. Daarbij komt dat een deep learning-netwerk representaties van de data kan maken die voor mensen niet meer herkenbaar zijn.

Bij toepassingen op het gebied van beeldherkenning wordt vaak gebruik gemaakt van een zogenaamd Convolutional Neural Network (CNN). Een CNN werkt als een filter die over een afbeelding beweegt en op zoek gaat naar de aanwezigheid van bepaalde eigenschappen. De architectuur hiervoor is weliswaar vooraf ontworpen, maar de filterwaarden worden zelfstandig en automatisch geleerd. Dergelijke neurale netwerken worden ook wel Feedforward Neural Networks (FNN) genoemd. De verschillende knooppunten staan weliswaar met elkaar verbinding, maar ze vormen geen cyclus. Ze communiceren dus enkel in voorwaartse richting met elkaar en slaan daarbij niets op. Recurrent Neural Networks (RNN) daarentegen zijn in staat om hun interne status, oftewel geheugen, te gebruiken om reeksen van invoer te verwerken. Bijvoorbeeld het Long Short-Term Memory (LSTM) netwerk maakt gebruikt van zogenaamde feedback connections waardoor het mogelijk is om een loop te creëren. Hierdoor is het in staat om naast enkelvoudige datapunten, zoals afbeeldingen, ook sequenties van gegevens, zoals spraak en video, te kunnen verwerken. 

Een doorbraak binnen deep learning waarbij minder data nodig is, is het Generative Adversarial Network (GAN). Een GAN kan gezien worden als twee deep learning-netwerken die in competitie zijn met elkaar. Het is een vorm van semi-supervised learning. Een van de twee netwerken wordt de generator genoemd. Deze probeert nieuwe datapunten te genereren die de trainingsdata nabootsen. Het andere netwerk, de discriminator, haalt deze nieuwe data binnen en bekijkt of deze onderdeel zijn van de trainingsdata of dat het fakes zijn. Hierdoor ontstaat een positieve feedback loop, aangezien de discriminator beter wordt in het onderscheiden van originele en fake data en de generator beter wordt in het creëren van overtuigende fakes. 

Binnen deep learning zien we steeds meer combinaties van leren ontstaan. Bijvoorbeeld Deep Reinforcement Learning. Hierbij worden bijvoorbeeld drones getraind om op een pad te blijven. Het is een combinatie van visual navigation en reinforcement. Zelfs op het gebied van ouderwetse spelletjes levert dit indrukwekkende doorbraken op. Google’s DeepMind creëerde AlphaZero, een programma die zichzelf Chess, Sogi en Go leerde spelen enkel door tegen zichzelf te spelen. Het algoritme werd niet gevoed met duizenden voorbeeldpotjes, maar werd alleen de regels uitgelegd. Binnen een trainingsperiode van een dag wist deze de beste computerprogramma’s te verslaan. 

Het principe van neurale netwerken is overigens allesbehalve nieuw. Al in de jaren ’60 werd het principe voor het eerst beschreven. Door de beperkt beschikbare rekenkracht bleven successen echter uit en heeft het lange tijd in de ijskast gestaan. 

Functionele toepassingen van AI

AI is in feite een toolbox met verschillende soorten gereedschap. Deze tools kunnen worden toegepast op verschillende gebieden, zoals robotica, spraakherkenning en aanbevelingssystemen. In sommige gevallen worden toepassingsgebieden als op zichzelf staande technologieën beschreven, aangezien er overlap is tussen onder andere computertechnologie, cognitieve wetenschap en psychologie. Voor deze toekomstverkenning is er echter voor gekozen om deze toepassingsgebieden als onderdeel van machine learning te benoemen, aangezien machine learning-methoden de belangrijkste drivers zijn van deze technieken. AI kan daarbij per definitie niet zonder inzichten uit andere aangrenzende vakgebieden en is domeinoverstijgend. Voor het overzicht is een selectie gemaakt van de meest besproken toepassingsgebieden van AI:

> Natural Language Processing (NLP) gaat over de vaardigheid van een systeem om menselijke taal te begrijpen. Een belangrijk aspect hierbij is semantiek, oftewel de betekenis van symbolen die de bouwstenen vormen van natuurlijke talen. Toepassingen vind je in chatbots, vertaalmachines, spamfilters, automatisch gegenereerde samenvattingen en zoekmachines. 

> Speech Processing gaat over systemen die spraaksignalen kunnen herkennen en verwerken. Dit maakt stemgestuurde zoekopdrachten mogelijk. Denk hierbij aan de verschillende spraakassistenten zoals Siri en Alexa. Er kan onderscheid worden gemaakt tussen spraakherkenning en stemherkenning. Met stemherkenning kunnen personen door middel van hun stem geïdentificeerd worden. Het is tevens in staat om kunstmatige stemmen te creëren. 

> Computer Vision gaat over systemen die in staat zijn om informatie uit beelden te halen en deze zo te herkennen. Het doel is dat deze systemen uiteindelijk beelden kunnen begrijpen en inhoudelijk kunnen interpreteren. Beeldherkenning wordt al in verschillende domeinen toegepast, zoals de medische wetenschap (o.a. screenen van longfoto’s op afwijkingen), multimedia (o.a. visuele zoekmachines) en defensie (o.a. surveillance). Daarnaast is het mogelijk om beelden kunstmatig aan te passen en zelfs te creëren. Dit worden ook wel deepfakes↓Met behulp van AI kun je een persoon dingen laten zeggen of doen die hij of zij in werkelijkheid nooit gezegd of gedaan heeft. Deze techniek wordt ook wel deepfake genoemd, een combinatie van de woorden deep learning en fake. Een bekend voorbeeld is de gemanipuleerde video van Barack Obama. >Hoofdstuk 2.3
genoemd.

> Affective Computing gaat over systemen die emoties kunnen opsporen en herkennen. Met name in de marketing wereld is deze toepassing in opkomst. Veel aankopen zijn namelijk emotiegedreven. Ons gezicht en onze houding verraden vaak onze emoties. Het kan daarmee ook worden toegepast binnen politiewerk. Zo zou een overvaller op straat herkend kunnen worden, nog voordat hij of zij de misdaad begaat.

1.1

Hoe werkt AI?