Opinie

Meta’s plannen met AI en neurotechnologie zijn nog problematischer dan het afschaffen van factcheckers

Een tijdje geleden maakte Mark Zuckerberg de controversiële keuze om factcheckers te verwijderen van Meta. Toch lijken de investeringen van het bedrijf in AI en neurotechnologie op termijn een veel grotere uitdaging te vormen.

De recente beslissing van Mark Zuckerberg om factcheckers te verwijderen van alle platformen onder Meta — waaronder Facebook, Instagram en Threads — heeft tot een stevig debat geleid. Dat ondermijnt volgens critici de inspanningen om desinformatie te bestrijden en de geloofwaardigheid op sociale media te behouden. 

Terwijl er veel aandacht wordt besteed aan deze beslissing, doemt er een veel grotere uitdaging op. Artificiële intelligentie (AI), die onder meer mensachtige taal verwerkt en genereert, zit sterk in de lift. Dat geldt ook voor neurotechnologie die het menselijke brein wil ‘lezen’. De opkomst van die twee technologieën heeft niet enkel het potentieel om het online discours te veranderen, maar ook ons fundamentele begrip van waarheid en communicatie.

Factcheckers speelden lang een belangrijke rol in het tegengaan van desinformatie op verschillende platforms. Dit was vooral bij onderwerpen als politiek, volksgezondheid en klimaatverandering van belang. Door beweringen te verifiëren en van context te voorzien, hebben ze platforms geholpen om een zekere mate van verantwoordelijkheid te behouden.

De stap van Meta om die factcheckers te vervangen door ‘community notes’, bijgevoegde notities die worden gemaakt vanuit een online community, is zorgwekkend. Veel experts zien de beslissing om de factcheckers te verwijderen, net zoals Elon Musk eerder al op X deed, als een stap terug. Ze argumenteren dat het overlaten van contentmoderatie aan gebruikers het ongecontroleerd verspreiden van onwaarheden mogelijk maakt.

Het gebrek aan regels om nieuwe technologieën te beheren, is alarmerend

Wereldwijd maken miljarden mensen maandelijks gebruik van de verschillende platformen van Meta, waardoor het bedrijf een enorme invloed heeft. Het versoepelen van veiligheidsmaatregelen kan maatschappelijke polarisatie verergeren en het vertrouwen in digitale communicatie doen wankelen.

Maar hoewel het debat over factchecking de krantenkoppen domineert, is er een groter geheel waar we rekening mee moeten houden. Geavanceerde AI-modellen zoals ChatGPT van OpenAI en Gemini van Google zetten grote stappen in het begrijpen van natuurlijke taal. Deze systemen kunnen samenhangende, contextueel relevante tekst genereren en complexe vragen beantwoorden. Ze kunnen zelfs genuanceerde gesprekken voeren. Dit vermogen om menselijke communicatie overtuigend na te bootsen, brengt ongekende uitdagingen met zich mee.

AI-gegenereerde content vervaagt de grens tussen content gemaakt door mens en machine. Dit roept ethische vragen op over auteurschap, originaliteit en verantwoordelijkheid. De tools die nuttige innovaties mogelijk maken, kunnen ook gebruikt worden als wapen om verfijnde desinformatiecampagnes op te zetten of de publieke opinie te manipuleren. 

Deze risico’s worden nog verergerd door andere opkomende technologieën. Geïnspireerd door menselijke cognitie bootsen neurale netwerken na hoe ons brein taal verwerkt. Het raakvlak tussen AI en neurotechnologie biedt potentieel om het menselijk denken te begrijpen, maar ook om het uit te buiten.

Zorgwekkende gevolgen?

Neurotechnologie is een tool die het brein leest en ermee in contact staat. Het doel van neurologie is te begrijpen hoe we denken. Net zoals AI, verlegt het de grenzen van wat machines kunnen doen. De twee gebieden overlappen sterk met elkaar.

REMspace, een start-up in Californië, bouwt bijvoorbeeld een tool die dromen registreert. Met behulp van een koppeling tussen het brein en een computer laat het mensen communiceren via lucide dromen. Hoewel dit spannend klinkt, roept het toch ook vragen op rond mentale privacy en controle over je eigen gedachten.

Meta’s investeringen in neurotechnologie zijn, naast de AI-ondernemingen, eveneens zorgwekkend. Verschillende andere internationale bedrijven onderzoeken ook neurotechnologie. Maar hoe zullen gegevens uit hersenactiviteit of taalpatronen worden gebruikt? En welke voorzorgsmaatregelen voorkomen misbruik?

Als AI menselijke gedachten kan voorspellen of nabootsen met gebruik van taal, beginnen de grenzen tussen externe communicatie en interne cognitie te vervagen. Die ontwikkeling kan het vertrouwen van mensen ondermijnen, en ons blootstellen aan uitbuiting. Het kan ook de manier waarop we denken over communicatie en privacy veranderen.

Hoewel dit soort technologie het leren kan verbeteren, wijst onderzoek er ook op dat het creativiteit en zelfdiscipline kan onderdrukken, vooral bij kinderen.

Meta’s beslissing om factcheckers te verwijderen moet goed onderzocht worden, maar het is slechts een deel van een veel groter probleem. AI en neurotechnologie dwingen ons om na te denken over hoe we taal gebruiken, we onze gedachten uiten en de wereld rondom ons begrijpen. Hoe kunnen we ervoor zorgen dat die tools de mensheid dienen en niet uitbuiten?

Het gebrek aan regels om die technologieën te beheren, is alarmerend. Om fundamentele mensenrechten te beschermen, hebben we een sterke wetgeving en samenwerking tussen verschillende industrieën en regeringen nodig. Het is cruciaal om dit evenwicht te vinden. De toekomst van waarheid en vertrouwen in communicatie hangt af van onze waakzaamheid en vooruitziendheid.

Dit artikel verscheen eerder in The Conversation.

Vertaling: Kato Speybrouck