Artificiële intelligentie verandert de manier waarop kennis wordt vergaard en gedeeld. Dit daagt volgens Carsten Könneker zowel wetenschappers als journalisten op vele vlakken uit.
Carsten Könneker is natuurkundige, literatuurwetenschapper en expert wetenschapscommunicatie, Heidelberg
De afgelopen maanden maakten we met z’n allen kennis met de ongelofelijke mogelijkheden van generatieve artificiële intelligentie (AI). Ook wetenschappers experimenteerden met de nieuwe tools. Intussen dringt AI in alle niveaus van het wetenschappelijk proces door en dringt de vergelijking met de digitalisering van wetenschappelijke publicaties sinds de jaren negentig zich op. AI verandert de manier waarop kennis wordt vergaard en gedeeld, of het nu gaat om data-extractie, interpretatie en datavisualisatie, tekstproductie, het omzetten van tekst in infographics of bewegend beeld. Dit daagt ons op vele vlakken uit.
Interne wetenschapscommunicatie
Eind september presenteerde de Deutsche Forschungsgemeinschaft (DFG), een van Europa's grootste financieringsorganisaties van wetenschappelijk onderzoek, haar eerste richtlijnen rond generatieve AI-modellen. De kernvraag luidde: mag AI meeschrijven aan onderzoeksresultaten of nieuwe projectaanvragen? In eerste instantie gaat deze vraag over ‘interne wetenschapscommunicatie’, namelijk het uitwisselen van informatie en ideeën tussen experts in het proces van peerreview. Wetenschappelijke vooruitgang stoelt nog altijd op deze primaire communicatie tussen peers.
De afgelopen maanden hebben niet alleen professionele creatieven en reclame-experts de mogelijkheden van ChatGPT, Llama, Bard, Midjourney, Dall-E of Stablediffusion ontdekt. Deze AI-tools creëren op verbazend korte tijd compleet nieuwe tekst- en beeldervaringen. Ze zijn gebaseerd op Large Language Models (LLM's), die luisteren naar namen als PaLM 2 (Google), Llama 2 (Meta) of GPT-4 (Open AI) en waarvoor grote delen van het internet als oefenterrein dienden.
Slechts enkele maanden na de lancering van ChatGPT en Midjourney zag de DFG zich al verplicht om duidelijk te maken hoe en waar deze tools in het wetenschappelijk proces en de interne communicatie toegestaan zijn. Het voorlopige antwoord: in principe mogen wetenschappers AI-tools gebruiken, bijvoorbeeld om te helpen bij data-analyse en het schrijven van wetenschappelijke publicaties of voorstellen. Zowel het gebruik als de specifieke tools moeten vermeld worden – en niet als coauteur. Het zijn goede richtlijnen, omdat ze transparantie creëren. Een algemeen verbod zou niet zinvol zijn en de naleving ervan zou niet controleerbaar zijn.
AI-tools zullen de productiviteit van wetenschap opdrijven, maar tegelijk is het risico op manipulatie reëel
Als enige uitzondering geldt dat AI niet gebruikt mag worden bij het opstellen van deskundigenrapporten voor de DFG. Logisch, want vertrouwelijkheid en de intellectuele eigendom worden immers geschonden wanneer beoordelaars de ideeën van anderen in hun prompts – de instructies aan AI – opnemen. Dit heeft een reden. Iedereen die generatieve AI gebruikt, voedt het systeem en helpt zo de bedrijven erachter om hun producten te verbeteren. Open AI, Meta, Google, Microsoft en Stability AI hebben permanent nieuwe inhoud nodig voor de verdere ontwikkeling van hun modellen, bij voorkeur inhoud die nog niet door AI is (mee)geschreven. Anders is er risico op ‘mode collapse’: als een model meerdere keren achter elkaar wordt getraind op gegevens die al door AI zijn gegenereerd, zal het snel niet meer in staat zijn om een grote verscheidenheid aan contextafhankelijke resultaten te produceren. Steeds dezelfde, foutgevoelige voorbeelden zullen verschijnen.
AI-tools zullen de productiviteit van wetenschap opdrijven. Daarnaast zal het aantal gespecialiseerde publicaties blijven toenemen, omdat het aantal onderzoekers wereldwijd blijft groeien. De grote uitgevers vinden dat prima, omdat hun bedrijfsmodel gebaseerd is op een continue stroom van nieuwe publicaties. Tegelijkertijd is er al langer een tekort aan reviewers, en dus bekijken de wetenschappelijke uitgevers of AI ook het proces van peerreview kan versnellen. Aan de andere kant is er al lange tijd een tekort aan recensenten voor de escalerende massa publicaties. En dus overwegen de ontwikkelingsafdelingen van de grote wetenschappelijke uitgeverijen op zijn minst of het peerreview proces ook versneld kan worden door AI. Het risico op manipulatie is reëel, bijvoorbeeld door de acceptatiescore op voorhand aan te passen, waardoor er middelmatige en zelfs inferieure werken gepubliceerd kunnen worden.
Externe wetenschapscommunicatie
Wat zal er gebeuren met de stroom primaire publicaties in het AI-tijdperk? Welke middelen zullen we als maatschappij gebruiken om de resultaten digitaal beschikbaar te stellen voor de meest uiteenlopende publieke doelgroepen? In de ‘externe wetenschapscommunicatie’ liggen mogelijk nog grotere omwentelingen in het verschiet.
Ten eerste zullen er diverse nieuwe publicatiemethodes ontstaan. Met LLM-toepassingen kunnen gespecialiseerde papers met één druk op de knop samengevat worden tot ‘toegankelijke’ nieuwsberichten. Deze kunnen op hun beurt in allerlei talen worden omgezet met tools als DeepL Translate en vervolgens met Llama of ChatGPT verder verfijnd voor specifieke doelgroepen – van kinderen van tien jaar oud over familieleden van patiënten tot belezen hoger opgeleiden. Tot slot kan men teksten taalkundig oppoetsen met programma’s als DeepL Write.
Andere tools zoals Elevenlabs.io maken het mogelijk om de bekomen teksten om te zetten in audioversies, vergelijkbaar met audioboeken of podcasts. De stem van de spreker kan vrij worden gekozen. AI kan ook bewegende beelden of zelfs korte video’s bij een tekst genereren, die dan weer op TikTok, YouTube en Instagram kunnen verschijnen, al dan niet aangevuld met geanimeerde infographics.
Elk wetenschappelijk onderwerp in een handomdraai op maat van een doelgroep brengen, het schept mogelijkheden voor educatie en het gelijkekansenbeleid. Niet alleen wetenschappers zelf, die beroepshalve een deel van hun tijd aan wetenschapscommunicatie moeten besteden, maar ook communicatieafdelingen van kennisinstituten, financieringsorganisaties en gespecialiseerde media zullen er hun voordeel mee doen.
Voor complotdenkers is generatieve AI een godsgeschenk: wetenschappelijke papers kunnen simpel vervalst worden
In principe kan iedereen met AI-tools in het publicatieproces ingrijpen, waardoor er naast onvermoede schatten van wetenschapscommunicatie ook een oorverdovende kakofonie aan de horizon gloort. AI levert niet alleen vanzelf ‘hallucinaties’- het verzinnen van informatie – op, maar ook opzettelijk verspreide desinformatie en nepcontent. Voor complotdenkers is generatieve AI een godsgeschenk: wetenschappelijke papers kunnen simpel vervalst worden, zo goed dat ze uiterlijk en stilistisch niet te onderscheiden zijn van het echte, peerreviewed materiaal.
Omgekeerd zal iedereen met AI-extractietools uit wetenschappelijke papers die inhoud halen die best aansluit bij zijn persoonlijke interesses. Een mogelijk positief aspect is het ontstaan van nieuwe participatiemodellen, vergelijkbaar met citizen science. In samenwerking met wetenschappers kunnen burgers helpen om teksten en infographics beter aan te passen aan de behoeften, het niveau en het mediagebruik van consumenten. AI-tools kunnen nuttig zijn, bijvoorbeeld door onderwerpen te suggereren die enkel voor kleinere doelgroepen interessant zijn en waarvoor nauwelijks aandacht is in de traditionele media.
Ook deze klassieke media zijn aan verandering onderhevig. Uitgevers van kranten en tijdschriften hoeven de toegang tot hun (archief)inhoud niet langer te regelen via een eenvoudige fulltext zoekopdracht, die een lijst met min of meer relevante artikelen oplevert. In de plaats daarvan kunnen ze (betalende) gebruikers een sterk geïndividualiseerde interactie met de content aanbieden, inclusief gepersonaliseerde dialogen. Vragen dicteren of opmerkingen invoeren via de smartphone, en vervolgens wordt media-inhoud afgespeeld, eventueel ondersteund met afbeeldingen en ander (bewegend) beeldmateriaal. Op deze manier kunnen nieuwe formats ontstaan, zoals geautomatiseerde eindeloze podcasts over je favoriete onderwerp.
De echte toegevoegde waarde van journalistieke wetenschapsverslaggeving – kritische beoordeling, commentaar, context meegeven – zal niet van generatieve AI komen
Het overvloedige kennisaanbod zal de professionele wetenschapsjournalistiek voor nieuwe uitdagingen plaatsen. Journalistiek geproduceerde inhoud en externe onafhankelijke wetenschapscommunicatie blijven belangrijk voor het democratisch functioneren van onze samenleving.
Niet alleen datajournalisten profiteren van AI. Betere inschatting van wetenschappelijke specialismen of snellere compilatie van betrouwbare gegevens uit heterogene bronnen zullen het journalistieke niveau verhogen. De echte toegevoegde waarde van journalistieke wetenschapsverslaggeving – kritische beoordeling, commentaar, context meegeven – zal niet van generatieve AI komen. Hier botst die op haar grenzen en blijft reflectie door menselijke experts cruciaal.
Hier liggen kansen om de journalistieke kwaliteit te waarborgen. AI-bedrijven, die altijd nieuwe premium content uit de wetenschap en van de media nodig hebben om hun modellen te trainen, zouden moeten bijdragen aan de herfinanciering van kwaliteitsjournalistiek door middel van een verplichte heffing. Dit zal niet vrijwillig gebeuren en bovendien moeten de middelen eerlijk verdeeld worden in het zeer complexe media-ecosysteem van het AI-tijdperk. Hier moet de wetgever het voortouw nemen