Taalmodellen als ChatGPT kunnen enorm lange, zeer correct geschreven teksten fabriceren. Op verzoek houden ze ook rekening met de gevoelens van de lezer. Maakt het dan nog wel uit wie iets zegt of schrijft?
Creative AI’s, ChatGPT, Google's BARD, ze halen dagelijks de krant. Zowel binnen de universiteit als in in de media is er veel bezorgdheid over of en hoe de snelkookpan met doorpruttelende ‘grote taalmodellen’ (LLMs) gaat overkoken. Die verontrusting gaat grotendeels over de vermeende intelligentie van AI en de controleerbaarheid daarvan. Experts waarschuwen dat AI zelfs het voorbestaan van de mensheid kan bedreigen.
Eigenlijk is de zorg dat machines slimmer zullen worden dan mensen nog ouder dan de computer zelf. Maar door de snelle ontwikkelingen rond de recente commerciële taalmodellen die spectaculair succesvol blijken bij het genereren van teksten, is de discussie over AI ineens heel actueel. Elke zichzelf respecterende universiteit heeft inmiddels wel een discussiepanel, thema-avondje en interne trainingssessie over ChatGPT georganiseerd.
Toch vind ik als taalkundige de intelligentiediscussie niet zo interessant. Computers kunnen oneindig veel beter rekenen, schaken en cirkels tekenen dan ik. Stuur me maar een mailtje zodra ze dat ook op de fiets kunnen.
Want juist algemene vaardigheden leken lang buiten het bereik van computers te liggen. Computerwetenschapper Eric Larson schrijft in zijn boek The Myth of Artificial Intelligence (Harvard University Press, 2021) dat het grote verschil tussen kunstmatige intelligentie en menselijke intelligentie is dat mensen moeiteloos al hun verschillende hypotheses over de wereld op elk moment weer kunnen aanpassen en loslaten. AI kan onwaarschijnlijk veel variabelen in beschouwing nemen maar vindt dan uiteindelijk één meest waarschijnlijke uitkomst. Daarom is de zelfrijdende auto, bijvoorbeeld, zo moeilijk. Heel soms is de statische waarschijnlijkheid dat een bewegende groene vlek naast de weg een waaiend plastic zakje is groter dan de kans dat het om een peuter gaat, terwijl kleine Joris toch echt van plan was om over te steken.
Als kinderen praten tegen Amazon's Alexa, laten ze onnodige beleefdheden achterwege
In de stroom aan nieuws over grote taalmodellen zijn ook berichten verschenen dat LLMs conclusies kunnen trekken die we niet kunnen verklaren op basis van hun trainingsdata en die sommigen als algemene intelligentie interpreteren. Hoe onwaarschijnlijk ook, vanwege het gebrek aan transparantie rond die trainingsdata en -methoden is deze bewering niet te controleren. De roep van een groep academici en belanghebbenden uit de AI-industrie vorige maand om een ontwikkelingspauze van een half jaar is daarom misschien helemaal geen slecht idee.
Maar wat mij ondanks dit alles veel meer fascineert is wat er met al die computergegenereerde taal verandert in onze omgang met wat we horen en lezen.
Lang lag de nadruk in taalkundige studies over taalgebruik via de computer op de vorm van die taal zelf. Sommigen voorspelden dat geschreven taal veel pictografischer zou worden en dat er geen grammaticale zin meer tussen de emoji's zou overblijven. Anderen vermoedden dat toekomstige mensen niet eens meer de moeite zouden nemen om te schrijven omdat alles via stemsturing zou gaan en alle berichten ingesproken en simultaan vertaald zouden worden.
Elementen van beide (toekomst)visies zijn nu zichtbaar, maar LLMs hebben daar een derde mogelijkheid aan toegevoegd: geen plaatje en geen menselijk ingesproken bericht, maar een enorme lap zeer correct geschreven of gesproken tekst, die bovendien uitstekend rekening houdt met de gevoelens van de lezer, waarvoor een mens alleen een handvol instructies heeft moeten intypen. "Schrijf een brief aan mijn buren waarin ik uitleg hoeveel het me spijt dat ik hun planten heb laten verdrogen tijdens hun vakantie, hoewel ik beloofd had ze water te geven. Doe dat op zo'n manier dat ik nooit meer naar hun verschrikkelijke verjaardagen hoef maar dat ik nog wel één keer in de maand de grasmaaier mag lenen." Van wie is de resulterende brief?
In de jaren '60 zette de franse filosoof Roland Barthes de literatuurwetenschap op z'n kop door 'de auteur' dood te verklaren. Dat was geen oproep om de in onbruik geraakte guillotine op de franse literati los te laten of alle schrijvers te vervangen door robots. Het was een oproep om teksten vooral als tekst te zien waar de lezer betekenis aan toekent. Wie de auteur is of (erger nog) wat hij bedoelt, doet er voor het begrip van de tekst helemaal niets toe. Interpretatie gaat alleen over hoe de lezer, niet de schrijver, de tekst ervaart. Als u bij uw leesclub opwerpt dat die geweldadige Raskolnikov toch vooral moet worden opgevat als een uitwas van Dostojevski's epileptische aanleg, zijn uw letterkundig geschoolde medeleden al stilletjes naar huis als u terugkomt van de WC.
Moeten we daar in de taalkunde nu ook aan? Zijn we meer dan een halve eeuw na de literatuurwetenschap ook als taalkundigen tot de onvermijdelijke conclusie gekomen dat wie iets zegt voor onze analyse niet zoveel uitmaakt; het gaat om degene die een tekst of uitspraak interpreteert?
Om daar een ultiem menselijk antwoord op te geven: ja en nee.
Willen wij echt een maatschappij inrichten waarin we empathie uitbesteden aan een algoritme?
Aan de ene kant is kijken naar hoe een uiting begrepen wordt in taalkundig onderzoek vaak informatiever dan gissen naar de intentie van de spreker. In de conversatie-analyse is het bijvoorbeeld gebruikelijk om een uiting alleen dan te classificeren als, zeg, een verzoek als de hoorder die ook zo interpreteert. De spreker kan wel zeggen "Ik ben geen ijsbeer" of "Goh, bestaat die Jan Smit nog?" Maar je kunt die uitspraken pas herkennen als verzoeken als de hoorder daarop de airco of de radio uitzet. Omdat je niet in het hoofd van de spreker kunt kijken negeren veel empirische taalkundigen de bedoeling van de spreker liever grotendeels. Het effect dat de uiting heeft op degene die aangesproken wordt geeft meer houvast.
Voor AI-taalmodellen komt daar nog bij dat alle menselijkheid ook daadwerkelijk van de hoorder/lezer komt. Computers kunnen zo goed praten omdat mensen heel goed zijn in het begrijpen van taal. Veel aannames die niet expliciet in een tekst staan, bedenken lezers/hoorders er gewoon bij. Als AI-modellen daarom soms een wat minder geslaagde zin produceren moet het raar lopen wil de lezer daar niet toch een interpretatie aan weten te verbinden.
Los daarvan zijn miljoenen mensen commerciële taalmodellen zoals ChatGPT met elke opdracht gratis aan het trainen, dus leert het model steeds meer hoe het mensachtig moet zijn. Het komt allemaal van de hoorder.
Maar sprekers zijn ook heus nog niet afgeschreven: voor hoorders is de vraag wie iets zegt van fundamenteel belang. Het voorbeeld van de brief aan de buren hierboven is niet uit de lucht gegrepen. Op de nieuwswebsite YCombinator noemde een commentator ChatGPT onlangs een 'empathieprothese': de teksten die het programma uitspuugt kunnen heel goed empathie veinzen. Een uitkomst voor emailschrijvers die wat moeite hebben met medemenselijkheid.
En juist dat is een aspect dat weerstand oproept. Willen wij echt een maatschappij inrichten waarin we empathie uitbesteden aan een algoritme? Plus, hoe lang val je als lezer voor dergelijke emails?
Niet heel erg lang, lijkt het. Uit studies naar hoe gezinnen omgaan met internetspraakcomputers, zoals Amazon's Alexa, zien we dat kinderen al snel doorhebben dat ze te maken hebben met een zeer gemankeerde taalgebruiker. Zo'n apparaat om spullen te bestellen of een vraag te beantwoorden lukt het lang niet altijd de juiste informatie op te pikken. Kinderen passen hun manier van praten flexibel aan zodat ze hun vraag zo min mogelijk hoeven te herhalen en laten onnodige beleefdheden daarbij achterwege. Oudere generaties sprekers bleven overigens vaak hun 'smartspeaker' netjes bedanken nadat het ding het weerbericht had voorgelezen.
Ik vind dat persoonlijk vrij ontroerend. Maar ook een teken dat onze verhouding tot een gesprekspartner een wezenlijk onderdeel is van het taalleerproces. Op oudere leeftijd hebben we er moeite mee om daar nog veranderingen in aan te brengen.
Onze verhouding tot een gesprekspartner is een wezenlijk onderdeel van het taalleerproces
Plato liet Sokrates al klagen, over de, in zijn ogen, verderfelijke invloed van geschreven taal: zodra taal wordt geschreven raakt wijsheid losgezongen van degene die die wijsheid door ervaring en introspectie verworven heeft. Bovendien is het een aanslag op het geheugen, want zodra iets op papier staat kun je het vergeten. Plato zou er best eens gelijk in kunnen hebben gehad dat geheugens van ongeletterde taalgebruikers superieur zijn aan die van mensen die lezen en schrijven en dat is een reden om, bijvoorbeeld, sceptisch te zijn over beweringen dat computers onze capaciteiten altijd vergroten. Maar inmiddels weten we ook dat Plato te pessimistisch was: taalgebruikers zijn er onwaarschijnlijk bedreven in om sprekers te vinden achter de tekst en dat vermogen is mede wat voor ons een tekst betrouwbaar maakt of overtuigend. In onze nieuwe wereld van AI-teksten en -spraak zullen sprekers lastiger te vinden en dubbelzinniger zijn. Er zullen meerdere type sprekers zijn en meerdere manieren om ons tot die spreker te verhouden door middel van taal. Maar ook als de spreker een geest in de machine is zullen we die weten te vinden.
De spreker is dood. Lang leve de spreker.
Stef Spronck is docent Taal en communicatie aan de Universiteit Utrecht en postdoctoraal onderzoeker aan de Universiteit van Helsinki. Samen met Hendrik De Smet schrijft hij het taalblog Inspraak bij de KU Leuven.