Kleine kinderen ontwikkelen kennis en vaardigheden als het ware vanuit het niets. Onderzoekers experimenteren met algoritmes die op een soortgelijke manier leren. Dat levert nieuwe inzichten op over hoe lichaam en geest daarbij samenwerken.
In de sciencefictionfilm Chappie (2015) maakt ingenieur Deon een machine die kan denken en voelen. Hij schrijft een softwareprogramma voor artificiële intelligentie dat kan leren als een kind, en hij test het uit op de robot Chappie. Aanvankelijk is de 'geest' van Chappie praktisch leeg – een tabula rasa, een onbeschreven blad. Maar door zijn omgeving te observeren en te experimenteren met de dingen om hem heen verwerft de robot langzamerhand algemene kennis. Hij leert taal te begrijpen en ontwikkelt allerlei complexe vaardigheden. Dat zijn prestaties waartoe zelfs de meest geavanceerde systemen voor artificiële intelligentie nog niet in staat zijn.
De machines leren handgebaren imiteren en simpele verbale commando's gehoorzamen, zoals ‘wijs aan’ en ‘sla’
Wel bestaan er al machines die beter presteren dan de mens op heel specifieke deelgebieden, bijvoorbeeld in schaken, quizzen of het Chinese bordspel Go spelen. In oktober 2017 introduceerde het Britse bedrijf DeepMind de nieuwste versie van een AI-programma voor Go – AlphaGo Zero genaamd. In tegenstelling tot zijn voorganger AlphaGo, die het spel had geleerd door gigantische aantallen door mensen gespeelde partijen te 'bestuderen', deed AlphaGo Zero geheel zelfstandig ervaring op door tegen zichzelf te spelen. Een opmerkelijke prestatie. Al staan daar wel enkele ernstige beperkingen tegenover: het AI-programma kan alleen spellen met duidelijke regels leren en moet miljoenen partijen spelen om zijn bovenmenselijke speelsterkte te ontwikkelen.
Hoe gaat dat bij de menselijke intelligentie? Kinderen ontwikkelen zich vanaf hun eerste levensdagen door hun omgeving te verkennen en te experimenteren met beweging en taal. Ze verzamelen op eigen houtje informatie, passen zich aan nieuwe situaties aan en zijn in staat ervaringen en vaardigheden die ze op een bepaald gebied hebben opgedaan toe te passen op andere gebieden.
Sinds het begin van deze eeuw zoeken robotingenieurs samen met neurowetenschappers en psychologen naar manieren om machines te bouwen die de spontane ontwikkeling van mensenkinderen nabootsen. Die gezamenlijke inspanningen hebben geleid tot robots die voorwerpen kunnen verplaatsen, over een basiswoordenschat en -rekenvaardigheid beschikken, en zelfs tekenen van sociaal gedrag vertonen. Omgekeerd helpen deze AI-systemen psychologen om meer inzicht te krijgen in hoe kinderen leren.
Klauwende kat
Onze hersenen proberen voortdurend de toekomst te voorspellen. Ze stellen hun verwachtingen ook voortdurend bij, om te zorgen dat die in overeenstemming zijn met de realiteit. Stel dat je voor het eerst de kat van de buren tegenkomt. Aangezien jouw ervaring met huisdieren tot op dat moment niet verder strekt dan je eigen hond, een speels en aanhankelijk beestje, ga je ervan uit dat ook de kat graag geaaid zal willen worden. Maar als je je hand uitsteekt, haalt de kat uit en plant zijn scherpe nagels in je vlees. Dat is voor jou aanleiding om je theorie ten aanzien van aaibaar ogende dieren bij te stellen. Misschien ontwikkel je de hypothese dat de kat vriendelijker zal reageren als je hem een lekker hapje geeft. En inderdaad, als je hem een traktatie voorhoudt, laat de kat zich aaien zonder gewelddadig te worden. De volgende keer dat je dus een schattig katje tegenkomt, bied je eerst een stukje vis aan voordat je het dier aanraakt.
De hogere verwerkingscenta van het brein verfijnen voortdurend onze modellen van de buitenwereld. Dat doen ze in reactie op de signalen die via de zintuigen binnenkomen, zoals pijn na een klauwende kattenpoot.
Ook onze ogen kunnen voor signalen zorgen. De zenuwcellen in het oog verwerken eerst de basale kenmerken van een beeld en geven die informatie dan door aan 'hogere' hersengebieden. Die interpreteren de betekenis van het tafereel als geheel. Heel opmerkelijk is dat er ook zenuwverbindingen zijn die in tegenovergestelde richting lopen: van hogere verwerkingscentra naar lagere structuren. Sommige neurowetenschappers denken dat deze 'neerwaartse' verbindingen de voorspellingen van het brein naar lagere niveaus transporteren, en zo invloed uitoefenen op wat we zien.
Van cruciaal belang is dat de neerwaartse signalen van de hogere gebieden voortdurend interageren met de opwaartse signalen afkomstig van de zintuigen. Daardoor ontstaat een voorspellingsfout: er is een verschil tussen wat we verwachten en wat we waarnemen. Deze discrepantie wordt doorgegeven aan de hogere niveaus, die op basis daarvan hun innerlijke modellen kunnen bijstellen en nieuwe voorspellingen genereren. Die actie-reactiecyclus herhaalt zich en vormt een oneindige lus.
‘Het signaal dat de voorspellingsfout doorgeeft aan de hogere gebieden zet het systeem ertoe aan inschattingen te maken van hoe de situatie in de buitenwereld werkelijk is’, zegt Rajesh Rao, die als computationeel neurowetenschapper werkzaam is aan de University of Washington. In de tijd dat Rao aan zijn proefschrift werkte, waren hij en zijn promotor, computationeel neurowetenschapper Dana Ballard, de eersten die een dergelijke vorm van voorspellende codering uittestten in een kunstmatig neuraal netwerk.
Kleine kinderen leren woordassociaties gemakkelijker wanneer ze voorwerpen in verband brengen met bepaalde lichaamshoudingen
Bij dit experiment, dat in 1999 is gepubliceerd in Nature Neuroscience, simuleerden de onderzoekers zenuwverbindingen in de visuele cortex. Nadat ze het netwerk hadden getraind met behulp van natuurfoto's, bleek het in staat om cruciale kenmerken van een afbeelding te leren herkennen, zoals de strepen van een zebra.
Kunstmatige proefpersoon
Een fundamenteel verschil tussen ons mensen en veel momenteel bestaande AI-systemen is dat wij een lichaam hebben waarmee we ons in de wereld kunnen voortbewegen en waarmee we kunnen handelen. Baby's en peuters ontwikkelen zich door de bewegingen van hun armen, benen, vingers en tenen uit te proberen en alles wat binnen handbereik is te onderzoeken. Zij leren uit eigen beweging hoe ze moeten lopen, praten en voorwerpen en mensen herkennen. Hoe die kleintjes dat allemaal voor elkaar krijgen zonder veel instructie is iets dat zowel ontwikkelingspsychologen als robotingenieurs bezighoudt. Door samen te werken komen ze soms tot verrassende ontdekkingen, op beide vakgebieden.
Sinds eind jaren 1990 hebben robotwetenschapper Jun Tani en andere onderzoekers een reeks baanbrekende experimenten uitgevoerd. Daarvoor hadden ze een neuraal netwerk ontworpen dat gebruikmaakte van voorspellingen om basale bewegingen te leren. Ze vroegen zich af hoe goed die algoritmes zouden werken in robots. De machines bleken basisvaardigheden te kunnen ontwikkelen, zoals hun weg vinden in een niet al te complexe omgeving, handgebaren imiteren en simpele verbale commando's gehoorzamen, zoals ‘wijs aan’ en ‘sla’.
Recenter hebben robotica-onderzoeker Angelo Cangelosi en ontwikkelingspsycholoog Linda Smith aangetoond hoe belangrijk het lichaam is voor het verwerven van kennis. ‘De vorm van het lichaam van de robot en de soorten handelingen die hij kan verrichten zijn medebepalend voor de ervaringen die hij heeft en waar hij iets van kan leren’, zegt Smith. Een van de voornaamste ‘proefpersonen’ van de wetenschappers is iCub, een robot van ongeveer een meter met een min of meer menselijke gedaante. iCub is niet uitgerust met voorgeprogrammeerde functies. Zo kan elke onderzoeker zelf algoritmes installeren voor zijn of haar specifieke experimenten.
In 2015 hebben Cangelosi en Smith de robot voorzien van een neuraal netwerk dat hem in staat stelde eenvoudige associaties te leren. Daarbij ontdekten ze dat hij nieuwe woorden gemakkelijker leerde wanneer de namen van de voorwerpen consistent werden gekoppeld aan specifieke lichaamshoudingen. De onderzoekers plaatsten een bal of een beker herhaaldelijk ofwel links ofwel rechts van de robot, zodat hij de voorwerpen ging associëren met de bewegingen die hij moest maken om ze te zien, bijvoorbeeld zijn hoofd draaien. Tijdens die handeling noemden ze de naam van het voorwerp in kwestie. Het bleek dat iCub die basiswoorden beter leerde wanneer het corresponderende voorwerp telkens op een specifieke locatie te zien was dan wanneer het op verschillende plaatsen verscheen.
Wat interessant is, is dat de onderzoekers vergelijkbare resultaten verkregen toen ze dit experiment uitvoerden met peuters van 16 maanden: kleine kinderen leren woordassociaties gemakkelijker wanneer ze voorwerpen in verband brengen met bepaalde lichaamshoudingen. Het team van Cangelosi is nu bezig deze techniek verder te ontwikkelen, in de hoop robots ook woorden als 'dit' en 'dat' te kunnen leren, die niet gekoppeld zijn aan specifieke voorwerpen.
Ook bij het aanleren van basale rekenvaardigheden hebben zowel robots als kinderen er baat bij wanneer ze daarbij hun lichaam gebruiken. Uit onderzoek blijkt bijvoorbeeld dat kinderen die er moeite mee hebben om een mentaal beeld te vormen van hun vingers gemiddeld ook slechter zijn in rekenen. In 2011 kwam uit een onderzoek van het team van Cangelosi naar voren dat dat ook opging voor robots. Als een robot had geleerd om met zijn vingers te tellen, waren de getallen accurater gerepresenteerd in zijn neurale netwerk dan als hij had leren tellen door alleen de namen van de getallen te gebruiken.
Robothondjes
Ook de confrontatie met nieuwe, verrassende dingen bevordert het leren bij kinderen. Onderzoekers van de Johns Hopkins Universiteit meldden in 2015 in een artikel in Science dat jonge kinderen, wanneer ze iets zien dat ze nog niet kennen – zoals een massief voorwerp dat door een muur lijkt te gaan – hun gefnuikte verwachtingen nader onder de loep nemen. Met andere woorden: de ingebouwde neiging om voorspellingsfouten te reduceren, stimuleert hun ontwikkeling.
Het onderzoek naar voorspellende processen in neurale netwerken zou ook kunnen leiden tot meer inzicht in ontwikkelingsstoornissen als autisme
Pierre-Yves Oudeyer, een AI-onderzoeker van het Franse Institut National de Recherche en Informatique et en Automatique (INRIA) denkt dat het leerproces subtieler werkt. Volgens hem selecteren kinderen actief, en met verbazingwekkende verfijndheid, uitgerekend die objecten in hun omgeving die hen de beste en meeste mogelijkheden bieden om te leren. Als een peuter kan kiezen tussen een speelgoedauto en een legpuzzel van honderd stukjes, is er een grotere kans dat die met de auto gaat spelen. Vermoedelijk komt dat doordat het kind met het kennisniveau dat bij die leeftijd past meer toetsbare hypotheses kan opstellen over de auto dan over de legpuzzel.
Om die theorie te toetsen rustte Oudeyer robotsystemen uit met een functie die hij 'intrinsieke motivatie' noemde. Die houdt in dat een reductie van de voorspellingsfouten een beloning oplevert. Maar wat 'ervaart' een artificiële intelligentie als een beloning? Wel, als hij is geprogrammeerd om een bepaald getal zo groot mogelijk te maken door zijn eigen activiteit, is elke toename van dat getal het equivalent van een beloning.
Dankzij dit mechanisme bleek AIBO – een robot van Sony met het uiterlijk van een jong hondje, die is voorzien van sensoren en eenvoudige bewegingen kan maken – in staat om zelfstandig taken te selecteren die het grootste potentieel bieden om iets te leren. De robothondjes wisten basisvaardigheden te ontwikkelen, zoals een voorwerp beetpakken of via geluid communiceren met een andere robot. Daarin slaagden ze zonder dat ze geprogrammeerd hoefden te worden om die specifieke doelen te bereiken. Dit resultaat, aldus Oudeyer is ‘een neveneffect van het feit dat de robot de wereld verkent, gedreven door de motivatie om zijn voorspellingen te optimaliseren.’
Opmerkelijk was dat toeval een rol speelde bij wat de robothondjes leerden, ondanks dat ze allemaal vergelijkbare trainingsfasen doorliepen. Sommige exemplaren deden wat meer verkenningswerk, andere wat minder. Aan het eind van het experiment hadden ze verschillende dingen geleerd. Volgens Oudeyer toont dit aan dat robots, zelfs als ze op dezelfde manier geprogrammeerd zijn en in een vergelijkbare omgeving hun leerproces doormaken, uiteindelijk toch uiteenlopende niveaus van vaardigheid kunnen bereiken – iets wat we ook in de meeste schoolklassen zien.
Onlangs heeft het team van Oudeyer via computersimulaties aangetoond dat kunstmatige spraakorganen met voorspellende algoritmes ook de basiselementen van taal kunnen leren. Momenteel onderzoekt hij, samen met cognitief neurowetenschapper Jacqueline Gottlieb, of een dergelijke door voorspellingen aangedreven intrinsieke motivatie ook aan de basis ligt van de menselijke nieuwsgierigheid.
Inzichten in autisme
Ook in de omgang met andere mensen proberen onze hersenen de toekomst te voorspellen. We doen voortdurend pogingen om de intenties van mensen af te leiden uit hun gedrag en te anticiperen op wat ze het volgende moment zullen zeggen of doen. De drang om voorspellingsfouten te reduceren blijkt op zich al voldoende om elementaire vormen van sociaal gedrag te genereren, zoals AI-onderzoeker Yukie Nagai en haar collega's aan de Universiteit van Osaka in 2016 hebben aangetoond.
De onderzoekers ontdekten dat iCub soms toch hulpvaardig gedrag vertoonde, ook als hij niet was geprogrammeerd met een intrinsiek vermogen om op anderen te reageren. Dat gedrag kwam er louter als uitvloeisel van de motivatie om voorspellingsfouten te reduceren. Zo had de robot geleerd een speelgoedauto naar een bepaalde locatie te duwen. Op een gegeven moment zag hij dat een van de onderzoekers diezelfde handeling uitvoerde, maar er niet in slaagde die tot een goed eind te brengen.
Uit eigen beweging duwde iCub toen het autootje naar de juiste plaats, simpelweg om de zekerheid te vergroten dat de auto zich op een bepaalde locatie bevond. Volgens Nagai is het denkbaar dat de ontwikkeling van jonge kinderen op een soortgelijke manier in zijn werk gaat. ‘Het is helemaal niet nodig dat een jong kind de intentie heeft om andere mensen te helpen’, zo luidt haar redenering. Enkel de motivatie om voorspellingsfouten te minimaliseren is al voldoende om de ontwikkeling van elementaire sociale vaardigheden op gang te brengen.
Het onderzoek naar voorspellende processen in neurale netwerken zou ook kunnen leiden tot meer inzicht in ontwikkelingsstoornissen als autisme. Nagai denkt dat sommige mensen met autisme misschien gevoeliger zijn voor voorspellingsfouten en zich daardoor overdonderd voelen door binnenkomende zintuiglijke indrukken. Dat zou ook verklaren waarom ze zich zo aangetrokken voelen tot repetitief gedrag. De gevolgen daarvan zijn immers heel voorspelbaar.
Cognitief psycholoog Harold Bekkering van de Radboud Universiteit in Nijmegen denkt dat de voorspellende processen ook nieuw licht kunnen werpen op het gedrag van mensen met ADD (attention deficit disorder). Zijn theorie luidt dat – in tegenstelling tot autisten, die zich bij voorkeur afschermen voor het onbekende – mensen met aandachtsstoornissen zich constant aangetrokken voelen tot onvoorspelbare prikkels in hun omgeving. ‘Sommige mensen zijn gevoelig voor de wereld om hen heen en verkennen haar, terwijl andere mensen overgevoelig zijn voor de buitenwereld en zich ertegen afschermen’, legt hij uit. ‘In een kunstmatig neuraal netwerk waarin voorspellende processen zijn geprogrammeerd kun je die beide patronen prachtig simuleren.’ Zijn team treft momenteel voorbereidingen om deze hypothese te testen via hersenscans.
Nagai hoopt op een andere manier te kunnen bepalen of de theorie klopt, namelijk met cognitive mirroring ('cognitief spiegelen'). Dat houdt in dat robots die zijn uitgerust met voorspellende leeralgoritmes interageren met mensen. De robot en de menselijke proefpersoon communiceren met elkaar via lichaamstaal en gezichtsuitdrukkingen. De robot probeert zijn gedrag zodanig aan te passen dat het overeenstemt met dat van de mens – en bootst zo de menselijke voorkeur voor voorspelbaarheid na. Op die manier kunnen onderzoekers robots gebruiken om de menselijke cognitie te simuleren, en vervolgens de architectuur van het neurale netwerk van de robots bestuderen om erachter te komen wat zich in het hoofd van een mens afspeelt. ‘We kunnen onze eigenschappen veruitwendigen in een robot om onszelf beter te leren begrijpen’, zegt Nagai.
Meer dan machinerie
Robots die de intelligentie van de mens evenaren zijn nog lang geen realiteit: Chappie blijft voorlopig tot het rijk van de sciencefiction behoren. Wetenschappers moeten nog allerlei technische obstakels overwinnen, zoals het feit dat het lichaam van een robot erg kwetsbaar is en slechts over beperkte 'zintuiglijke' vermogens beschikt.
Een veel grotere uitdaging vormt de ongelooflijke complexiteit van het brein zelf. Ondanks talrijke pogingen op de een of andere manier het brein na bootsen is de wetenschap voorlopig niet in staat een machine te bouwen die zich kan meten met de menselijke hersenen. ‘Ik ben het totaal oneens met mensen die beweren dat we over tien à twintig jaar machines hebben met het intelligentieniveau van de mens’, zegt Pierre-Yves Oudeyer.
Daar komt nog bij dat er voor intelligentie meer nodig is dan alleen maar de juiste machinerie en adequate neurale netwerken. Onderzoek blijft aantonen dat ouders en andere verzorgers fundamenteel zijn voor de ontwikkeling van een kind. ‘Als je me zou vragen of een robot echt menselijk kan worden, antwoord ik met de wedervraag of iemand op dezelfde manier voor een robot kan zorgen als voor een kind’, zegt Jun Tani. ‘Als het antwoord ‘ja’ is, dan is het misschien mogelijk. Anders kunnen we niet verwachten dat een robot zich zal ontwikkelen als een echt mensenkind.’
Een ander belangrijk aspect is dat kennis geleidelijk, stap voor stap, wordt verzameld. ‘De ontwikkeling van een kind is een heel complex systeem van allerlei opeenvolgende kettingreacties’, zegt Linda Smith. ‘Wat op de ene dag gebeurt, legt het fundament voor wat er de volgende dag gebeurt.’ Volgens haar is dat geleidelijke leerproces, dat kenmerkend is voor de mens en dat een leven lang doorgaat, van onschatbare waarde. Zolang we dat proces niet kunnen integreren in een artificiële intelligentie, zal een robot volgens Smith nooit het niveau van de menselijke intelligentie kunnen bereiken.
Kort voor zijn dood schreef de beroemde natuurkundige Richard Feynman: ‘Wat ik niet kan maken, begrijp ik niet.’ In zijn boek Exploring Robotic Minds geeft Tani een nieuwe draai aan die gedachte: ‘Ik kan begrijpen wat ik kan maken.’ De beste manier om de menselijke geest te doorgronden, zo meent hij, is hem na te maken.
Misschien komt er een dag waarop we erin slagen een robot te maken die net zo goed kan verkennen, zich aanpassen en zich ontwikkelen als een mensenkind. Eventueel krijgt die robots zelfs kunstmatige verzorgers om hem genegenheid en begeleiding te bieden. Tot het zover is, zullen robots die een klein beetje op kinderen lijken ons blijven voorzien van waardevolle inzichten in de manier waarop kinderen leren, en tonen wat er kan gebeuren wanneer er met bepaalde basale mechanismen iets misgaat.