De Brits-Canadese computerwetenschapper en voormalig Google-topman Geoffrey Hinton ontvangt dit jaar - samen met natuurkundige John Hopfield - de Nobelprijs Fysica. Eos sprak hem eerder dit jaar: ‘Ik acht het realistisch dat AI ons op termijn uitroeit.’
Geoffrey Everest Hinton (°1947) is een Brits-Canadese cognitief psycholoog en computerwetenschapper, vooral bekend om zijn werk op het gebied van kunstmatige neurale netwerken. Van 2013 tot 2023 werkte hij afwisselend voor Google LLC (Google Brain) en de Universiteit van Toronto. In mei 2023 kondigde hij zijn vertrek bij Google aan, vanwege bezorgdheid over de risico’s van kunstmatige intelligentie en AI-technologie. Hinton ontving de 2018 Turing Award samen met Yoshua Bengio en Yann LeCun, voor hun werk over deep learning. Samen met fysicus John Hopfield ontvangt hij nu ook de Nobelprijs voor Natuurkunde, voor hun ontdekkingen en uitvindingen die de basis leggen voor machine learning.
Dit interview verscheen in juli in Eos Wetenschap.
Geoffrey Hinton reist niet vaak meer wegens chronische rugpijn. Hij woont en werkt in Toronto, maar we ontmoeten hem uitzonderlijk in een klein, gezellig appartement in het hart van Parijs. Meer dan een uur lang blijft hij rechtop staan om zijn rug te sparen, af en toe heen en weer stappend terwijl hij zijn antwoorden overdenkt. De Brits-Canadese peetvader van de artificiële intelligentie (AI) zorgde vorig jaar voor ophef door zijn vertrek aan te kondigen bij Google, waar hij tien jaar lang werkte als onderzoeker. Sindsdien heeft hij een nieuwe missie: de wereld waarschuwen voor de vele gevaren van AI, gaande van nepvideo’s die democratieën kunnen ontwrichten over autonome wapens tot jobs die verloren gaan.
Hinton is een autoriteit in AI. Als hij spreekt, luistert de wereld. In de jaren 1980 was hij al bezig met neurale netwerken, op een moment dat er weinig toekomst leek in te zitten. Hij ontwikkelde toen backpropagation, een algoritme waarmee artificiële neurale netwerken kunnen leren en dat vandaag de basis vormt van bijna alle machineleermodellen. De techniek komt erop neer dat de verbindingen tussen artificiële neuronen zo aangepast worden dat het neurale netwerk de gewenste output geeft.
In 2012 stond Hinton mee aan de wieg van de deep learning-revolutie, een vorm van machineleren die gebruik maakt van kunstmatige neurale netwerken die leidde tot ChatGPT. In 2013 verkocht hij samen met twee onderzoekers van de universiteit van Toronto, waar hij woont, DNNresearch aan Google, een start-up gespecialiseerd in deep learning, spraakherkenning en visuele herkenning van objecten. Hinton werd daarna vicepresident en engineer fellow bij Google, waar hij mee leiding gaf aan Google Brain, een onderzoeksteam dat zich toelegde op deep learning. In 2018 ontving Hinton samen met Yann LeCun en Yoshua Bengio de Turing Award, de Nobelprijs voor computerwetenschappers, een van de vele prijzen en onderscheidingen die hem te beurt vielen.
U werkte in de jaren 1980 al met neurale netwerken, op een moment waarop velen eraan twijfelden. Hoe wist u zo zeker dat ze zouden werken?
‘De dominante gedachte in AI was toen symbolische AI, het idee dat intelligentie te maken had met het verwerken van symbolen zoals woorden en nummers. Ik keek hier anders naar. Ik wilde kijken naar hoe het menselijke brein werkte. Mijn vader was een bioloog, ik probeerde te kijken hoe biologische intelligentie werkte. Daarom wist ik dat neurale netwerken een veel pertinentere manier waren om naar intelligentie te kijken.’
‘In 1985 maakte ik het eerste neurale taalmodel, maar dat was veel te kleinschalig. Ik had toen samen met sommige onderzoekers al wel door hoe fantastisch het zou kunnen worden, maar we wisten ook dat we veel krachtigere computers nodig hadden. Natuurlijk zijn er grote verschillen tussen digitale en biologische intelligentie. Ik dacht lange tijd dat computers nooit zo goed zouden werken als onze hersenen, dat ze maar een flauwe weergave waren van biologische intelligentie. Dat was verkeerd. Digitale intelligentie werkt veel beter en efficiënter dan die van ons. ChatGPT4 weet veel meer dan wij, wellicht duizend keer meer. Grote taalmodellen hebben een beter algoritme om te leren dan wat wij door evolutie ontwikkeld hebben. Dat is beangstigend. Het kan meer data opslaan in minder connecties. En ze leren veel beter en sneller. Ze weten tienduizend keer zoveel als één mens én ze communiceren heel efficiënt. Stel dat je tienduizend kopieën van een model hebt en er is één ervan dat iets leert, dan weten alle andere het ook. Mensen kunnen dat niet. In vergelijking met ons doen ze ook meer met minder. Ze hebben slechts drie biljoen connecties, wij hebben er honderd biljoen.’
Was er een moment waarop u dacht: AI gaat veel sneller dan ik had verwacht?
‘Ja, dat was bij GPT2, denk ik. Dat werkte veel beter dan ik verwachtte. Het moet in 2018 of 2019 geweest zijn. GPT2 kon uitleggen waarom een grap leuk is. Ik gebruik dat altijd als een test om te zien of ze iets begrijpen. Ze kunnen geen grappen vertellen, maar ze kunnen wel uitleggen waarom moppen grappig zijn. Niet bij alle, maar wel bij veel. Wat ze dan weer niet kunnen, is grappen maken. Ze starten met ‘Een priester en een octopus stappen een bar binnen’, wat klinkt als het begin van een goeie grap, maar komen dan met een werkelijk afschuwelijk slechte pointe.’ (lacht)
Wanneer wordt AI volgens u slimmer dan wij?
‘Er is vijftig procent kans dat we binnen vijf tot twintig jaar superintelligentie krijgen, intelligentie die ons cognitief ver overtreft. Eens we systemen hebben die even slim zijn als wij gaan we snel systemen hebben die slimmer zijn. We zitten daar al vrij dicht bij.’
U bent er rotsvast van overtuigd dat grote taalmodellen intelligent zijn en kunnen redeneren. Daar bestaat veel discussie over.
‘Mensen die zeggen dat taalmodellen niet begrijpen, hebben een vreemd idee van hoe intelligentie werkt. Mensen als de Amerikaanse taalkundige Noam Chomsky zeggen dat we met symbolische expressies werken die we met logische regels bewerken. Ze zeggen ook dat je niets kan leren zonder aangeboren structuren in je hersenen. Dat is crazy. We hebben AI-systemen die enkel op basis van data leren. Neurale netwerken kunnen redeneren en zijn ook creatief. GPT4 creëert originele tekst, andere systemen niet. Als je tests doet rond menselijke creativiteit, zijn sommige chatbots beter dan negentig procent van de mensen. Het is te gek om te denken dat ze niet creatief zijn. Ik heb een vraag voor je: waarom is een mesthoop als een atoombom?’
‘Grote taalmodellen hebben een beter algoritme om te leren dan wat wij door evolutie ontwikkeld hebben. Dat is beangstigend’
Geen idee.
‘Het antwoord is dat het beide exponentiële kettingreacties zijn. Wanneer het heter wordt in een mesthoop, produceert deze steeds sneller warmte. Wanneer een atoombom meer neutronen produceert, produceert de bom deze steeds sneller. De meeste mensen weten dit niet, behalve misschien fysici, maar ChatGPT4 wel. Het legt verbanden die velen niet zien, omdat het erg veel kennis heeft. Systemen als ChatGPT4 weten veel meer dan wij, wellicht duizend keer meer. Ze hebben een beter algoritme om te leren dan wat wij door evolutie ontwikkeld hebben. Dat is beangstigend.’
U zegt dat het mogelijk is dat AI het van ons overneemt en ons zelfs vernietigt.
‘O ja. Toen ik vorig jaar zei dat AI het zou kunnen overnemen, waren er veel mensen die dachten dat het sciencefiction was, vandaag zijn het er al een stuk minder. Zij die denken dat het sciencefiction is, zijn niet de mensen die weten hoe grote taalmodellen werken en ze gebouwd hebben. Grote taalmodellen zijn vormen van AI die menselijke taal begrijpen en produceren, zoals ChatGPT. Er zijn ook wel specialisten die denken dat ze geen bedreiging zijn, zoals Yann LeCun. Hij denkt dat ze mogelijk wel slimmer gaan worden dan wij, maar dat we ons geen zorgen moeten maken, omdat we ze onder controle gaan kunnen houden. Ik geloof dat niet. Hoeveel voorbeelden ken jij van een intelligenter iets dat gecontroleerd wordt door een minder intelligent wezen? Een baby controleert zijn moeder, maar niet in die mate dat je moet kiezen tussen het leven van de moeder of de baby. Bij AI kan dat wel.’
Waarom zou AI de mensheid willen uitroeien?
‘Er zijn verschillende mogelijke redenen. Eén is evolutie. Stel dat je meerdere intelligente AI-systemen hebt en dat een ervan kopieën van zichzelf wil gaan maken. Dat is mogelijk zodra het doelen gekregen heeft van mensen en denkt dat het heel goed is in het realiseren van die doelen. Het kan ervan overtuigd raken dat het daarin beter is dan de andere systemen, waardoor het beter zou zijn dat er meer kopieën zijn van zichzelf. Vanaf dat moment kan het dominant worden en steeds meer controle proberen te krijgen.’
‘Het kan ook dat het van ons de vrijheid krijgt om nevendoelstellingen te creëren om een hoofddoel te bereiken. Het kan zo proberen om steeds meer controle te krijgen en obstakels uit te schakelen. Het kan ook dat we een AI-systeem een opdracht geven, maar dat we niet doorhebben dat de manier waarop het gerealiseerd wordt, schadelijk kan zijn voor ons.’
Kan u daar een voorbeeld van geven?
‘Als je AI vraagt om een oplossing te bedenken voor het klimaatprobleem kan het beslissen dat het uitroeien van de mensheid de beste manier is om dat te doen. Los daarvan is er nog een ander probleem: sommige menselijke waarden komen niet met elkaar overeen. Sommige mensen vinden bijvoorbeeld dat zware bommen gooien op kinderen altijd een slecht idee is, anderen vinden dat het in sommige omstandigheden wel kan. De Israëli’s vinden bijvoorbeeld dat het kan in Gaza.’
Niet iedereen deelt uw pessimisme. Sommige mensen vinden doemdenken gevaarlijker dan AI zelf.
‘Dat zou kloppen als er geen echte dreiging was, maar die is er wel. Het gevaar bestaat dat ik paniek creëer en mensen heel bezorgd maak, maar dat is het waard. Het was ook de moeite waard om mensen bang te maken voor nucleaire wapens. We hebben kunnen vermijden dat iedereen, behalve de Amerikanen, ze gebruikt hebben.’
We vonden een manier om ermee om te gaan. Waarom zou dat niet kunnen bij AI?
‘Het is mogelijk, maar er is één groot verschil: atoombommen kunnen voor niets anders gebruikt worden dan dingen vernietigen. Ze hebben wel geprobeerd meer toepassingen te vinden. In Colorado hebben ze in de jaren 1960 geprobeerd om het te gebruiken voor fracking (een manier om schaliegas en schalieolie uit diepe ondergrond vrij te maken, red.). Het werkte niet. Het was het enige wat ze konden bedenken, er zijn geen andere toepassingen. Je zou het natuurlijk kunnen gebruiken om kanalen te graven.’ (grijnst)
‘Als je Elon Musk en Mark Zuckerberg vertrouwt om de toekomst te bepalen, moet je wel dom zijn’
Europa en de VS zoeken via regelgeving manieren om beter met AI om te gaan. Hoe kijkt u daar naar?
‘Overheden zijn zich al bewust van het probleem, dat is belangrijk. Ze nemen stappen, maar vaak zijn die nog te slap. De Amerikaanse president Joe Biden heeft een grote executive order ingevoerd die zegt dat je geen grote modellen mag trainen zonder dat de overheid er weet van heeft. Europa heeft een AI-wet, maar ook die is zonder tanden. In California hebben ze iets dat wel verder gaat. Als je daar grote modellen traint, moet je er testen op doen en zeggen aan de Californische overheid hoe je ze precies getest hebt. Als je dat niet doet, kunnen ze je vervolgen. Het is de eerste wetgeving die ik gezien heb met expliciete handhavingsmechanismen erin.’
‘Zowel Europa als de VS willen militaire toepassingen van AI uitsluiten bij hun regelgeving. Overheden reguleren heel graag de industrie, maar niet zichzelf. Dat ze militaire toepassingen uitsluiten, is een slecht teken. En ze verbieden niet om de manier waarop de AI-modellen vragen proberen te beantwoorden openbaar te maken, zoals Facebook vandaag doet, wat volgens mij dringend moet gebeuren. Elon Musk doet nu hetzelfde. Ik vind dat verschrikkelijk onverantwoord. Als je Elon Musk en Mark Zuckerberg vertrouwt om de toekomst te bepalen, moet je wel dom zijn. Daar mag je me op citeren.’ (lacht)
Hoe kijkt u vandaag naar wat u mee gecreëerd heeft? Overweegt het positieve of het negatieve?
‘Ik waarschuw voor de desastreuze gevolgen die AI kan hebben, omdat ik veel grote problemen zie, maar er zijn ook veel uitstekende toepassingen. Daarom gaan we ook niet stoppen met de ontwikkeling ervan. Het zou toch fantastisch zijn dat je een bedrijf kan opbellen omdat je een product hebt dat niet werkt en dat een chatbot naar je luistert, het probleem identificeert en je uitlegt hoe je het kan herstellen? Of dat er een systeem is dat je iets dat je niet begrijpt heel duidelijk en traag kan uitleggen? GPT4 doet dat nu al voor software. Ik kan niet werken met Excel en het interesseert me ook niet. Het is een vervelend programma, maar ik had het dit jaar nodig voor mijn belastingen. Met GPT4 erbij was het makkelijk. Het is alsof er een expert naast je zit die je alles uitlegt. Geweldig.’
‘Er zijn nog veel andere goeie toepassingen van AI, zoals in gezondheidszorg en geneeskunde. AI kan in sommige gevallen heel goed medische beelden interpreteren. Ook bij diagnoses kan het een grote hulp zijn. Bij moeilijke diagnoses haalt een dokter een score van veertig procent, een AI-systeem vijftig procent. Als je de twee combineert, krijg je een score van zestig procent. Bij moeilijke vaststellingen laat een dokter zich dus best bijstaan door AI, want daarmee kan je levens redden. In Noord-Amerika alleen sterven elk jaar 200.000 mensen door een verkeerde diagnose. Door AI te gebruiken, kan je evenveel mensen redden als er sterven door geweren, auto-ongevallen of zelfdoding.’
‘Het probleem is dat dokters heel conservatief zijn. Op dit moment doden ze veel mensen door AI niet te gebruiken, maar er is niemand die hen daarvoor bestraft. Er zijn ook veel gevaren bij AI, maar ik heb geen spijt over beslissingen die ik genomen heb. Toen ik er aan begon, leek het niet waarschijnlijk dat het zou leiden naar iets bedreigends, zeker niet in deze tijdspanne. Ik dacht dat het nog veraf was en dat we meer dan genoeg tijd zouden hebben om uit te vissen wat we er konden aan doen. Helaas heb ik dat verkeerd ingeschat.’