Chatbots helpen ons bij het maken van beslissingen. Maakt dat het kiezen makkelijker, of juist moeilijker?
De afgelopen jaren zijn er op het gebied van kunstmatige intelligentie (AI) talloze doorbraken geweest. Een van die mijlpalen was de ontwikkeling van chatbots op basis van grote taalmodellen, waaronder ChatGPT. Door training met grote hoeveelheden data, is ChatGPT in staat om gepersonaliseerde aanbevelingen te genereren, waarbij rekening wordt gehouden met factoren als de interesses voorkeuren en browsegeschiedenis van de gebruikers. Door deze enorme hoeveelheid mogelijkheden vinden dergelijke chatbots steeds meer hun weg naar besluitvorming in het dagelijks leven. Maar wat voor impact heeft dit nou eigenlijk? Maakt het kiezen alleen maar moeilijker, of is het een zegen?
Het fenomeen ‘keuzestress’ doet zich voor wanneer een persoon tijdens het nemen van beslissingen overweldigd wordt door het aantal opties. Wanneer consumenten een overvloed aan keuzes ervaren, vinden ze het vaak een uitdaging om te kiezen, uit angst om de verkeerde beslissing te nemen. In veel gevallen zorgt dit ervoor dat mensen minder tevreden zijn over de gekozen optie. Maar ervaren gebruikers dit ook wanneer een chatbot als ChatGPT verschillende opties biedt? Onderzoekers uit Japan zijn in dit vraagstuk gedoken.
Minder stress door accurate opties
Bij traditionele besluitvorming zorgen 24 tot 30 opties al voor de nodige hoeveelheid stress. Het onderzoeksteam had echter de verwachting dat de negatieve effecten die met zo’n groot aantal opties gepaard gaan, zouden afnemen als ze door ChatGPT zouden worden gegenereerd, doordat de door de chatbox gegenereerde opties vaak persoonlijker en nauwkeuriger zijn. Om dit te testen hebben de onderzoekers vijf onafhankelijke onderzoeken uitgevoerd om de reacties van consumenten op de aanbevelingsopties van ChatGPT te analyseren.
In de eerste twee onderzoeken ontvingen de deelnemers aanbevelingen voor liedjes. In de andere drie onderzoeken ontvingen ze suggesties over plaatsen om te bezoeken tijdens een hypothetische reis naar Kyoto, Japan. Vervolgens werd er aan de deelnemers gevraagd hoe tevreden ze waren, hoe nauwkeurig de antwoorden waren en of ze de intentie hadden om de liedjes aan te kopen of de aanbevolen plaatsen te bezoeken. De deelnemers bleken voorkeur te hebben voor een groot aantal aanbevelingsopties (zoals 60 of 70) van ChatGPT. Hun tevredenheid en koopintentie namen toe met het aantal opties, omdat ze de door de chatbot verstrekte informatie als accuraat beschouwden. Bovendien gaven de deelnemers aan dat ze liever veel suggesties van ChatGPT ontvangen in vergelijking met die van een mens of online reisbureau.
Menselijke bias
Expert op het gebied van experimentele psychologie en ‘decision-making’ dr. Jelle Demanet (HITlab): ‘Het is een relevante studie met opvallende resultaten die aantonen dat we in sommige opzichten meer vertrouwen hebben in ChatGPT dan in onszelf of anderen, vooral in het maken van een “long list”. Systemen die met meer factoren rekening kunnen houden, hebben het potentieel om betere beslissingen te nemen dan mensen. Mensen hebben namelijk de neiging om zeer subjectief te zijn in hun beslissingen. We moeten alleen wel zorgen dat we, door het selecteren van leerdatabases om AI-algoritmes op te trainen, niet de menselijke biases het systeem inwerken.’
‘Daarnaast is het een uitdaging dat we bij mensen fouten eerder accepteren dan bij een technologie. Een voorbeeld hiervan is een zelfsturende auto die in de bomen rijdt. Zoiets is direct wereldnieuws, terwijl er dagelijks menselijke ongelukken gebeuren. Het probleem is dat het moeilijker is om een “schuldige entiteit” aan te wijzen als het systeem een fout maakt, wat bij het maken van menselijke fouten gemakkelijker is. Om het inzetten van dergelijke technologieën beter te reguleren, zal de AI-act nodig zijn. Dit is een Europese wet die het gebruik van AI, algoritmes en machine learning beperkt. Belangrijk is wel dat we als Europa ook niet té veel reguleren, anders schieten andere continenten ons voorbij. Dit is een moeilijk evenwicht.’