Op sociale media kun je momenteel alleen een bericht liken en delen. Onderzoekers ontwierpen een nieuwe optie waarmee de gebruiker kan oordelen over de betrouwbaarheid van een bericht: een (dis)trust-knop. Die zou de verspreiding van fake news en misinformatie kunnen terugdringen.
De laatste jaren neemt de verspreiding van fake news en misinformatie op sociale media sterk toe. Zo gingen er tijdens de coronapandemie bijvoorbeeld veel valse nieuwsberichten rond omtrent vaccinatie en ook bij Amerikaanse presidentsverkiezingen verschenen er veel twijfelachtige berichten.
Op dit moment is het al mogelijk om foutieve of misleidende informatie op sociale media als Facebook en Instagram te rapporteren. Facebook werkt samen met factcheck-organisaties, waaronder Knack en Deutsche Press Agentur, om berichten te controleren. Maar de impact van die maatregelen is beperkt. Onderzoekers van de University College London (UCL) gingen daarom op zoek naar een andere manier om de verspreiding van nepnieuws te verminderen.
Socialemediaplatformen steunen momenteel op een principe waarbij gebruikers in de eerste plaats streven naar sociale beloningen in de vorm van een zo groot mogelijk aantal likes en shares. Of de berichten waarheidsgetrouw zijn, is daarbij van ondergeschikt belang. Foutieve informatie heeft namelijk evenveel, of zelfs meer, potentieel om gedeeld te worden en veel likes te krijgen. Op sommige platformen is er daarnaast ook een dislike-knop, maar die geeft geen oordeel over de betrouwbaarheid van een bericht. Zo’n dislike wil niet noodzakelijk zeggen dat het bericht niet te vertrouwen is of foutieve informatie bevat.
Aanhangers van complottheorieën zouden de (dis)trust-knoppen kunnen misbruiken
In de studie, bestaande uit verschillende experimenten met in totaal 951 deelnemers, voegden de onderzoekers twee nieuwe reactieknoppen toe aan een fictief socialemediaplatform: een trust- en distrust-knop. Met die knoppen kan de gebruiker aangeven of hij de informatie in het bericht al dan niet vertrouwt. Zo geeft de gebruiker dus een oordeel over de betrouwbaarheid. De deelnemers werden vervolgens blootgesteld aan zowel valse als waarheidsgetrouwe nieuwsverhalen om na te gaan wat de invloed van de nieuwe knoppen was op hun gedrag op sociale media.
De kracht van de gemeenschap
Het onderzoek toont aan dat een trust- en distrust-knop de verspreiding van nepnieuws en misinformatie op sociale media doet afnemen, en dit zonder de algemene betrokkenheid van de gebruikers op het platform te beïnvloeden. De deelnemers hechtten namelijk veel belang aan het oordeel van medegebruikers. Om negatieve reacties van anderen te vermijden, deelden ze minder valse informatie op het platform en bovendien kregen ze meer likes op betrouwbare berichten. Iemand die correcte informatie verspreidt wordt beloond, terwijl gebruikers die fake news delen gestraft worden. Daarbij steunt de methode op de eigen bekwaamheid van de gebruikers en de kracht van de gemeenschap om foutieve berichten van het platform te weren, in plaats van dit in handen te geven van de beheerders. ‘Het is moeilijk te voorspellen hoe het toevoegen van de (dis)trust-knop op bestaande socialemediaplatformen zou uitdraaien, maar ons onderzoek toont alvast aan dat het een belangrijk onderdeel van de strijd tegen nepnieuws kan vormen’, zegt hoofdonderzoeker Laura Globig.
Niet de heilige graal
Michaël Opgenhaffen, professor digitale media en journalistiek aan de KU Leuven, is toch eerder kritisch over de (dis)trust-knop: ‘Het is zeker een boeiend onderzoek waaruit blijkt dat veel van de deelnemers de (dis)trust-knop wel degelijk gebruiken en dat ze er ook rekening mee houden wanneer ze berichten delen. Maar het blijft een experiment waarbij de deelnemers in een onnatuurlijke omgeving door een nagemaakte tijdlijn scrollen en dat is iets heel anders dan wanneer je thuis op de bank door je smartphone gaat.’ Gebruikers zouden de nieuwe engagement-knoppen bovendien ook kunnen misbruiken, denk bijvoorbeeld aan aanhangers van complottheorieën en fake news. Die mensen kunnen dan ook AI en andere bots inzetten om een bericht massaal te trusten of distrusten. Op die manier kunnen ze een vals bericht als betrouwbaar laten overkomen en een waarheidsgetrouw bericht afschilderen als fake news.
De algoritmes van sociale media zouden de berichten met veel distrusts waarschijnlijk zelfs meer aandacht geven
Daarnaast biedt de (dis)trust-knop geen ruimte voor twijfel. Bovendien ziet de gebruiker enkel hoeveel trusts en distrusts een bericht gekregen heeft, maar die gebruiker weet dan nog steeds niet wat er juist ongeloofwaardig of onbetrouwbaar is aan dat bericht. ‘Een beter mechanisme is dan bijvoorbeeld de recent toegevoegde functie van community notes op Twitter, waarbij gebruikers reacties en context toevoegen aan potentieel misleidende inhoud’, stelt Opgenhaffen. Al is de impact daarvan nog niet wetenschappelijk getest.
Het grootste probleem is dat de berichten niet verwijderd worden wanneer ze veel distrusts krijgen. In een ideaal scenario zouden de berichten die duidelijk onbetrouwbaar en foutief zijn snel verwijderd worden. ‘Niet iedereen kijkt namelijk naar de distrust-aanduidingen of community notes en als het onbetrouwbare bericht dan gewoon blijft circuleren, slaagt het nog steeds in zijn opzet’, zegt Opgenhaffen. De algoritmes van sociale media zouden de berichten met veel distrusts waarschijnlijk zelfs meer aandacht geven, omdat die enkel kijken naar hoeveel reactie een bericht krijgt zonder een onderscheid te maken in positieve en negatieve feedback.
Op dit moment zijn heel wat platformen verschillende initiatieven aan het uittesten, maar er is nog geen eenduidig overkoepelend beleid. In de toekomst biedt een combinatie van de verschillende methoden die passen bij verschillende types gebruikers mogelijk een oplossing. ‘De experimenten met de nieuwe (dis)trust-knop zijn zeker interessant om meer te weten te komen over de invloed van die engagement-knoppen, maar de heilige graal in de strijd tegen fake news is die knop jammer genoeg nog niet’, besluit professor Opgenhaffen.