3.1

Expert-voorspellingen

Er wordt druk gespeculeerd over de toekomst van AI. Wanneer gaan we general AI↓Artificial General Intelligence zou in staat moeten zijn om alle intellectuele taken uit te voeren die een mens ook kan uitvoeren. >Hoofdstuk 1.1 bereiken? En hoe groot is de stap naar superintelligence↓Artificial Super Intelligence (ASI) kan bereikt worden wanneer AI het kunnen van het menselijk brein op alle mogelijke domeinen overstijgt. >Hoofdstuk 1.1 dan? Over het feit dát we general AI gaan bereiken lijken de meeste experts het wel met elkaar eens te zijn. Wetenschappers zien hiervoor met name geen filosofische belemmeringen en benadrukken dat ons brein en een computerbrein in dat opzicht niet zoveel van elkaar verschillen. 

» Het brein is net als een computer een fysisch mechanisme. Tenzij je denkt dat er iets ontastbaars in ons is, een ziel bijvoorbeeld. Dat mag, maar als wetenschapper zie ik dat niet zo. «

 –– Marcel van Gerven, Radboud Universiteit

Mensen hebben de stip nu eenmaal op de horizon gezet en met het huidige momentum en de energie die daarachter zit, zou het best wel eens kunnen gaan lukken om general AI te gaan bereiken. De snelheid van de ontwikkelingen op het gebied van AI in de afgelopen decennia is ongekend. In 2005 schreef futurist Ray Kurzweil het boek The singularity is near. Kurzweil beschrijft hierin dat het punt waarop AI meer invloed krijgt op de ontwikkelingsrichting van de samenleving dan de mens zelf relatief dichtbij is. Als dat punt bereikt is zal AI krachtiger zijn dan alle menselijke intelligentie gecombineerd. Een belangrijke driver voor deze zogenaamde AI Takeoff is het potentiële vermogen van AI om zichzelf te verbeteren door zijn eigen broncodes te herschrijven en optimaliseren zónder tussenkomst van de mens. Aanvankelijk zal het intelligentieniveau van het systeem minimaal zijn, maar door continue iteraties zal het uiteindelijk evolueren tot human level AI↓Oftewel Artificial General Intelligence (AGI). Deze vorm van intelligentie zou in staat moeten zijn om alle intellectuele taken uit te voeren die een mens ook kan uitvoeren. >Hoofdstuk 1.1 of deze zelfs overstijgen. Er wordt hierbij onderscheid gemaakt tussen twee verschillende takeoffs. De zogenaamde Soft Takeoff staat voor een takeoff waarbij het jaren of decennia kost om human-level AI te bereiken. Deze ‘trage’ ontwikkeling kan bijvoorbeeld het gevolg zijn van de beperking dat AI afhankelijk is van feedback uit de fysieke wereld die alleen in real time verwerkt kan worden. Experts zoals AI-wetenschapper Hans Moravec en futurist Ray Kurzweil geloven dat deze takeoff de voorkeur moet hebben, omdat deze veilig is en goed beheersbaar blijft voor de mens. Aan de andere kant bestaat ook de mogelijkheid voor een Hard Takeoff. Bij deze benadering zou general AI in maanden, dagen of zelfs minuten bereikt kunnen worden. Er is hierbij sprake van een intelligence explosion, waarbij een systeem zijn eigen proces dat intelligentie voortbrengt kan analyseren en verbeteren. Hierdoor ontstaat een intelligenter systeem dat het proces herhaalt, enzovoort. Uiteindelijk wordt er dan een ‘limiet’ bereikt, die volgens deze benadering menselijke intelligentie ver zal overstijgen. Deze visie wordt gedeeld door experts als futurist Michael Anissimov en filosoof Nick Bostrom. 

» Since the design of machines is one of these intellectual activities, an ultra-intelligent machine could design even better machines; there would then unquestionably be an “intelligence explosion,” and the intelligence of man would be left far behind. «

–– I.J. Good, 1965

De verschillende opvattingen van experts worden nog duidelijker wanneer er gevraagd wordt om een concreet jaartal aan de voorspelling te koppelen. Deze voorspellingen worden ook wel timeline predictions genoemd. De voorspellingen lopen uiteen van ‘binnen 10 jaar’, tot ‘over 100 jaar’ en alles wat daartussen zit. Uit onderzoek van de University of Oxford uit 2014 blijkt dat deze diversiteit in opvattingen van alle tijden is. Uit 257 voorspellingen over de toekomst van AI in de periode tussen 1950 en 2012, zijn 96 timeline predictions gefilterd en geplot in een grafiek. Hieruit blijkt dat er weliswaar geen directe correlatie is tussen de verschillende voorspellingen, maar dat het moment waarop we general AI zouden moeten gaan bereiken wel steeds vooruitgeschoven wordt. Meer dan een derde van de voorspellingen gaat ervanuit dat general AI bereikt zal worden in een periode van 15-25 jaar vanaf het moment dat de voorspelling is gedaan. Daarbij lijken experts over het algemeen iets voorzichter te zijn in hun voorspellingen dan non-experts. Hoe meer je weet, hoe meer besef je krijgt van wat je allemaal niet weet.

‘Median estimate for human-level AI, graphed against date of prediction’ –  Bron: University of Oxford (2014)

Futurist Martin Ford stelde in 2018 een lijst samen van 18 wereldwijd gerespecteerde experts op het gebied van AI en interviewde ze voor zijn boek Architects of Intelligence. Als onderdeel van deze gesprekken stelde hij de vraag wanneer de experts verwachten dat general AI bereikt zal worden. De voorspellingen lopen uiteen van 2029 (11 jaar vanaf 2018) tot 2200 (182 jaar vanaf 2018). Het gemiddelde ligt op 81 jaar. Verschillende experts gaven aan liever geen voorspelling te doen, omdat het pad naar human-level AI zeer onzeker is en het nog onduidelijk is welke hordes er precies genomen moeten worden. De meeste experts wilden alleen anoniem een voorspelling geven. Opvallend is dat juist de experts met de twee uitersten een voorspelling on the record wilden geven, namelijk futurist Ray Kurzweil (2029) en MIT professor Rodney Brooks (2200). Het gemiddelde van 81 jaar is in verhouding tot andere onderzoeken overigens vrij pessimistisch. Daarbij komen de meeste clusters uit op 20-40 jaar. Bij deze onderzoeken ligt het aantal deelnemers echter wel een stuk hoger en zijn naar alle waarschijnlijkheid ook experts buiten het vakgebied geraadpleegd. 

» If you want to see a true thinking machine, eat your vegetables. «

–– Martin Ford, 2018

De grootste misvattingen

Met name toekomstvisies die gepaard gaan met de harde takeoff hebben de neiging om ongewenste scenario’s op te roepen. Denk bijvoorbeeld aan machines die alle banen overnemen of de wereld willen besturen. Volgens Rodney Brooks leiden deze ‘verkeerde voorspellingen’ tot angsten voor dingen die ‘nooit gaan gebeuren’. Volgens hem zijn er zeven redenen waarom deze toekomstvoorspellingen zo uit de bocht vliegen:

  1. We overschatten de effecten van de technologie op de korte termijn en onderschatten de gevolgen ervan op de lange termijn.
  2. We doen voorspellingen die zo ver af staan van de mogelijkheden van de huidige technologie, dat we de beperkingen ervan niet kunnen overzien. Hierdoor zijn dergelijke uitspraken niet goed te toetsen.
  3. We vergelijken de specialistische capaciteiten van machines met algemene competenties van mensen. We gaan er hierbij ten onrechte vanuit dat machines hun capaciteiten ook kunnen toepassen op andere taken.
  4. We vergeten dat machine learning↓Het gaat bij machine learning over een revolutie waarin mensen niet meer programmeren (als dit, dan dat), maar waarin machines zelf regels afleiden uit data. >Hoofdstuk 1.1 veel menselijke voorbereiding vereist. Het is gebaseerd op specifieke codes en datasets die ontworpen zijn voor een specifiek doel binnen een specifieke context. Deze kunnen daardoor niet zomaar in andere domeinen worden toegepast.
  5. We verwachten dat de ontwikkelingssnelheid van technologie zich continu ontwikkelt en negeren het feit dat het vaak om geïsoleerde doorbraken gaat die moeilijk te voorspellen zijn.
  6. We gaan ervanuit dat de wereld – op een specifieke en plotselinge twist na – in de toekomst in essentie exact hetzelfde is als vandaag. Wanneer we echter in staat zijn om superintelligente machines te ontwikkelen, dan zal de wereld als gevolg van een geleidelijke evolutie significant anders zijn.
  7. We verwarren de snelle integratie van nieuwe software met die van nieuwe hardware. In de praktijk duurt het echter veel langer voordat oude systemen volledig vervangen zijn en in de breedte van de samenleving worden gebruikt.

Met name punt 6 wordt vaak over het hoofd gezien. Dit zie je bijvoorbeeld terug in de populaire Netflix-serie Black Mirror. De ontwikkeling van één specifieke technologie wordt enorm vooruit gespoeld, terwijl de rest van de omgeving gelijk blijft. Dit verklaart enerzijds het succes van de serie, mensen kunnen zich er op deze wijze makkelijker in verplaatsen, maar het geeft anderzijds een onrealistisch beeld. De context zou namelijk mee moeten veranderen. Zo werd de zelfrijdende auto in de jaren ’50 al voor het eerst gevisualiseerd. Men dacht destijds dat dit meer tijd en ruimte zou bieden voor gezinnen om samen gezelschapspellen te spelen. Huidige visualisaties van de zelfrijdende auto gaan veel meer in op efficiënte en tijdsbesparing, zodat we onderweg kunnen werken; work on wheels. De focus op de technologie zorgt ervoor dat voorspellingen vaak niet uitkomen, doordat de veranderende context onvoldoende meegenomen wordt. 

» AI will not replace human labor, instead it will change the nature of jobs and create many new opportunities that were unimaginable before. «

–– Max Welling, UvA

Uitdagingen voor de toekomst

Of het nog 10 jaar gaat duren of nog bijna 200 jaar, met de huidige technologieën benaderen we menselijke intelligentie hoogstwaarschijnlijk niet. Hoe relevant en krachtig ze ook zijn, de huidige toepassingen van AI zijn specialistisch en narrow↓Artificial Narrow Intelligence is een vorm van AI die zeer goed is in het doen van specifieke taken. Denk hierbij aan schaken, aanbevelingen doen en het geven van kwantificeerbare voorspellingen. >Hoofdstuk 1.1
. Een van de grootste technologische uitdagingen volgens experts is transfer learning. Een machine kan leerervaringen↓Er wordt onderscheid gemaakt tussen drie vormen van leren: supervised learning, reinforcement learning en unsupervised learning. >Hoofdstuk 1.1
binnen een specifiek domein nog niet toepassen op een gebied in een ander domein. Zo kan Google Translate verkeersregels prima vertalen, maar het heeft geen idee hoe ze toegepast moeten worden in het verkeer. De flexibiliteit en common sense↓Common sense bestaat uit alle kennis over de wereld; van fysieke en zichtbare aspecten, tot culturele en dus meer impliciete regels, zoals hoe je met elkaar omgaat. >Hoofdstuk 2.1 die mensen hiervoor nodig hebben is voor machines nog een enorme uitdaging. Geïntegreerde informatie gaat verder dan statistiek. Bijvoorbeeld bij medische diagnoses: standaard beslissingen zijn zo over te nemen, maar bij meer zeldzame ziektes wordt het lastig. Daar is te weinig data voor. Een computer kan wel kankercellen herkennen op basis van afbeeldingen en dit veel sneller en efficiënter doen dan het menselijk oog. Maar een machine zou geen complexe operaties kunnen uitvoeren, waarbij er verbanden moeten worden gelegd die niet uit patronen bestaan (Transformaties↓Bij transformatie worden de beperkingen van denkstijlen doorbroken. Dit wordt ook wel gezien als de diepste vorm van creativiteit. >Hoofdstuk 2.1
). 

Een andere grote uitdaging is causaliteit. Data kan soms onverklaarbaar zijn. Bijvoorbeeld bij een verzekeraar: data wijst uit dat rode auto’s gemiddeld hogere verzekeringsclaims hebben. Maar komt dit omdat mensen met rode auto’s agressiever rijden, of zit er een rode Lamborghini in de dataset die total loss is gereden en het gemiddelde scheef trekt? Zonder menselijke tussenkomst zou de premie voor mensen met een rode auto zomaar automatisch verhoogd kunnen worden. AI is niet goed in het verschil tussen correlatie en causaliteit. Het kan weliswaar samenhang tussen twee gebeurtenissen zien, maar het kan niet goed vaststellen of de ene gebeurtenis ook daadwerkelijk het gevolg is van de gebeurtenis die daaraan vooraf is gegaan. Wanneer er in de zomer meer ijsjes worden verkocht en er tegelijkertijd ook meer verdrinkingen zijn, dan vertelt ons gezond verstand dat hier geen oorzakelijk verband tussen zit. Voor een computer is dit veel ingewikkelder.

Daarnaast vormt de beperkte Kennis over ons brein↓Neurowetenschappers zijn steeds beter in staat om bepaalde functies aan specifieke hersengebieden te koppelen. Toch weten we over de werking van intelligentie nog relatief weinig. >Hoofdstuk 2.1 een uitdaging voor het bereiken van general AI. De wijze waarop de hiërarchie van taken en geheugen in ons brein bij leren precies werkt weten we niet. Naast de fysiologische en mechanische structuur is ons brein ook nog omgeven door chemische processen en hebben emoties invloed op ons leerproces. We hebben hoop, verwachtingen en ambities. Daarnaast zijn we sociale wezens; we werken samen en leren van elkaar in verschillende contexten. Dergelijke leerervaringen zijn niet zomaar ‘na te maken’. 

» Het gapende gat middenin AI is de definitie van I. Dat is pijnlijk. «

–– Frank van Harmelen, VU

De uitdagingen voor de toekomst worden door het onderzoek van psychologen Felix Warneken en Michael Tomasello op een treffende manier duidelijk. Ze deden een reeks van experimenten om te onderzoeken op welke wijze altruïsme werkt bij jonge kinderen. Het experiment zag er als volgt uit:

Een man loopt met een stapel boeken naar een kast met gesloten deuren. Bij de kast aangekomen loopt de man met zijn boeken tegen de kastdeuren aan. Een peuter kijkt vanuit de hoek van de kamer toe en ziet hoe de man terugloopt om vervolgens opnieuw met de boeken in zijn handen tegen de gesloten kastdeuren aan te lopen. Na twee pogingen grijpt het jongetje in en opent de kastdeuren. Nadat hij de deuren geopend heeft kijkt hij naar de man en vervolgens naar de boekenplank. De man legt de boeken vervolgens in de kast.

In de gehele scene wordt niet gepraat en toch is het jongetje heel bewust van de bedoeling van de man. Allereerst heeft dit te maken met bewustzijn↓Bewustzijn maakt dat we ons onder andere bewust zijn van onze emoties en gedachten, dat we keuzes en de gevolgen daarvan kunnen ervaren en dat we kunnen reflecteren op ons gedrag. >Hoofdstuk 2.1 en empathie↓Empathie is de vaardigheid om je in te kunnen leven in de situatie en gevoelens van anderen. Door empathie zijn we in staat om ook de non-verbale communicatie van anderen te lezen en begrijpen. >Hoofdstuk 2.1 ; het jongetje kan zich in de man verplaatsen en kan daaruit het doel van de man afleiden. Dat lijkt niet zo heel bijzonder, maar dat is het wel. Het doel is op zichzelf namelijk niet expliciet en is niet duidelijk waarneembaar. In theorie zou de man ook hele andere doelen kunnen hebben. Hij zou ook kunnen proberen om de stapel boeken op de kast te leggen of met behulp van de boeken de kast om te duwen. Het feit dat het jongetje hier niet vanuit gaat heeft te maken met common sense. Zo weet het kind bijvoorbeeld dat een kast hol is en niet massief. En dat het planken heeft waar je boeken op kunt leggen. Dit gaat dus niet over fysiek waarneembare aspecten, maar over abstracte concepten. Hierbij speelt tevens het zogenaamde frame problem: het jongetje bepaalt intuïtief welke informatie relevant is en welke informatie niet. Zo is de kleur of de vorm van de kast voor het jongetje niet relevant, maar wel het feit dat het twee deuren heeft die geopend kunnen worden. Ook al heeft het jongetje deze letterlijke situatie hoogstwaarschijnlijk nog nooit in zijn leven meegemaakt, zijn gezond verstand stelt hem in staat om op de juiste manier te handelen.

Wanneer je een computer wilt programmeren om vergelijkbare taken te kunnen doen, dan loop je tegen een rekenkundig probleem aan. Het aantal mogelijkheden is namelijk bijna oneindig, waardoor het zelfs met de krachtigste computers nog niet exact is op te lossen. Dit wordt ook wel computationele complexiteit genoemd. Daarbij kunnen computers door middel van Deep learning↓Deep learning is een machine learning-methode die gebruik maakt van verschillende gelaagde artificial neural networks. >Hoofdstuk 1.1  objecten weliswaar herkennen, maar ze weten niet precies wat het object daadwerkelijk betekent. Computers hebben geen intentionaliteit↓Zelfs wanneer je alle kennis over de wereld in een computer programmeert, dan blijft de vraag of een computer daadwerkelijk begrip heeft van zijn handelen. Dit begrip wordt ook wel intentionaliteit genoemd. >Hoofdstuk 2.1

» We’re worried about something taking over the world that can’t even on its own decide to play chess again. « 

–– Oren Etzioni, Allen Institute for Artificial
Intelligence

Doorbraken in de toekomst

De meeste ontwikkelingen op het gebied van AI zijn nu nog te danken aan enorme datasets waarmee machines getraind worden. Maar mensen leren niet op deze wijze. Wanneer we iets zien, beschrijven we het met behulp van taal. Wanneer we iemand ergens over horen praten, stellen we ons voor hoe deze objecten en gebeurtenissen er in de echte wereld uitzien. Mensen leven in een fysieke wereld, vol met sensorische prikkels. Deze ervaringen maken het voor mensen mogelijk om de wereld te begrijpen. Dit principe wordt ook wel symbol grounding↓Symbol grounding is het gegeven dat Intelligentie ontstaat door interactie met de omgeving. Representaties in onze geest krijgen pas betekenis door de koppeling met sensomotorische ervaringen. >Hoofdstuk 2.1 genoemd.

» We don’t leave our babies with an encyclopedia in the crib, expecting them to understand the world. «

–– Boris Katz, MIT

Het huidige AI-onderzoek is in de afgelopen decennia uiteengevallen in twee verschillende kampen. De ‘symbolisten’ die intelligente machines proberen te bouwen door ze te coderen met formele logica↓In de eerste fase van AI, van 1957 tot eind jaren ‘90, werd voornamelijk gebruikt gemaakt van formal logic, oftewel als-dan regels. Deze vorm van AI was vooral gericht op high level cognition, zoals redenering en probleemoplossing. >Hoofdstuk 1.1 en symbolische informatie en de ‘connectionisten’ die met behulp van op biologie geïnspireerde Neurale netwerken↓Artificiële neurale netwerken worden gebruikt binnen deep learning en zijn oorspronkelijk gebaseerd op het menselijk brein, waarbij neuronen laagsgewijs met elkaar verbonden zijn. >Hoofdstuk 1.1 machines proberen te trainen met grote hoeveelheden data. Traditioneel gaan deze twee kampen niet zo goed samen. Maar ironisch genoeg ligt de verwachte doorbraak binnen AI juist in de combinatie van deze twee benaderingen, namelijk Deep Reasoning. Neurale netwerken zorgen ervoor dat het systeem op basis van patroonherkenning kan ‘zien’ en de symbolische programmering zorgt ervoor dat het systeem kan ‘redeneren’. Deze vorm van leren lijkt op de wijze waarop kinderen leren, namelijk door te kijken én te praten. 

» Instead of trying to produce a programme to stimulate the adult mind, why not rather try to produce one which simulates the child’s? «

–– Alan Turing, 1950

Onderzoek van MIT, IBM en DeepMind uit 2019 toont de potentie van deze benadering. Zij ontwikkelden de Neuro Symbolic Concept Learner (NS-CL), een systeem dat uit verschillende AI-technieken bestaat. Een neuraal netwerk is getraind op een reeks situaties met verschillende objecten. Een ander neuraal netwerk is getraind op vraag-antwoord gesprekken over deze situaties. Op deze wijze kan het vragen beantwoorden over de situaties. Het systeem is daarbij geprogrammeerd om symbolische concepten in de teksten te begrijpen, zoals objecteigenschappen en ruimtelijke relaties. Deze kennis helpt het systeem om nieuwe vragen te beantwoorden over andere situaties. Het systeem kan dus concepten herkennen in nieuwe vragen en deze koppelen aan visuele objecten uit eerdere situaties. Zónder hiervoor opnieuw getraind te worden. Met de huidige neurale netwerken is dit niet mogelijk.

Deze nieuwe benadering pakt problemen van de oude benaderingen aan door ze te combineren. Deep Reasoning verhelpt het schaalbaarheidsprobleem van het symbolisme (het is onmogelijk om alle opties efficiënt te programmeren) en het pakt tegelijkertijd het dataprobleem van neurale netwerken aan (grote datasets zijn vaak niet beschikbaar of onvolledig). Op deze wijze kunnen bijvoorbeeld robotsystemen in real time leren, zonder dat ze veel tijd kwijt zijn met trainen in specifieke omgevingen. 

Onderzoek in de toekomst

Ontwikkelingen op het gebied van AI brengen machines met een vorm van ‘agentschap’ steeds dichterbij. Oftewel, machines die zelfstandig acties ondernemen en autonome besluiten nemen. Machines vormen hiermee een nieuwe klasse van actoren in onze samenleving met hun eigen gedragingen en ecosystemen. Dit vraagt volgens experts om de ontwikkeling van een nieuw wetenschappelijk onderzoeksgebied, namelijk die van Machine Behavior. Onderzoekers van verschillende Amerikaanse universiteiten en bedrijven hebben in 2019 een artikel gepubliceerd in Nature waarin ze oproepen tot een interdisciplinaire wetenschappelijke onderzoeksagenda. Het doel is om meer inzicht te krijgen in het gedrag van artificiële intelligente systemen. Momenteel concurreren wetenschappers van verschillende disciplines nog te veel met elkaar. AI-experts en system engineers moeten meer gaan samenwerken met neurologen, biologen, psychologen, filosofen, sociologen, economen etc. Het uitgangspunt hierbij is dat we AI-systemen op dezelfde manier moeten bestuderen als de manier waarop we dieren en mensen bestuderen, namelijk door middel van empirische observatie en experimenten. Bij mensen en dieren kunnen we namelijk ook niet onder de Motorkap↓We kunnen de complexe concepten die wij aan het brein willen koppelen, zoals bewustzijn en vrije wil, nog niet modelleren en we kunnen ze niet een-op-een linken aan gebieden in het brein. >Hoofdstuk 2.1 kijken en verwachten dat alle processen te volgen zijn. 

» Maybe we don’t need to look inside the black box after all. We just need to watch how machines behave, instead. «

–– Karen Hao, MIT Technology Review

Machines als zelfstandige agents klinkt misschien als toekomstmuziek, maar het is nu al gaande. We hebben steeds meer interactie met zelfdenkende machines. Machines die informatie vergaren, hiervan leren, dit delen met andere apparaten in het systeem en hierdoor steeds complexere besluiten kunnen nemen. Denk bijvoorbeeld aan Alexa, de home assistent van Amazon. Het apparaat leert op basis van gesprekken en kan hierdoor specifieke aanbevelingen geven die het gedrag van gebruikers beïnvloedt. Het is steeds moeilijker om te herleiden of deze aanbeveling geoptimaliseerd is op commerciële doelen, of bedoeld is om mensen van het best passende advies te voorzien.





3.1

Expert-voorspellingen