AI kan grote hoeveelheden gegevens analyseren en afstemmen op een specifiek doel. Hierdoor kan het desinformatie verspreiden, maar chatbots kunnen nu ook patronen in nepnieuws herkennen en effectieve strategieën ontwikkelen om het tegen te gaan.
Het internet maakt het makkelijker dan ooit om complottheorieën op te doen en te verspreiden. En al zijn sommige onschuldig, andere kunnen zeer schadelijk zijn, doordat ze onenigheid zaaien en zelfs leiden tot onnodige sterfgevallen. Nu denken onderzoekers een nieuw hulpmiddel te hebben ontwikkeld om valse complottheorieën te bestrijden: AI-chatbots. Onderzoekers van MIT Sloan en Cornell University ontdekten dat chatten over een complottheorie met een groot taalmodel (LLM) het geloof van mensen erin met ongeveer 20 procent deed afnemen, zelfs bij deelnemers die wat zij geloofden belangrijk zeiden te vinden voor hun identiteit. Het onderzoek werd recentelijk gepubliceerd in het tijdschrift Science.
De bevindingen kunnen een belangrijke stap voorwaarts betekenen om mensen die zulke ongefundeerde theorieën aanhangen te bereiken en tot zinnen te brengen, zegt Yunhao (Jerry) Zhang, een postdoc die is verbonden aan het Psychology of Technology Institute en daar de invloed van AI op de samenleving bestudeert.
Grondleggers AI
De Nobelprijs voor Natuurkunde is dit jaar door de Amerikaan John Hopfield en de Canadees Geoffrey Hinton gewonnen. Hun ontdekkingen hebben zelflerende machines mogelijk gemaakt en zijn essentieel geweest voor de ontwikkeling van AI-systemen zoals ChatGPT.
Het Nobelcomité benoemt dat de doorbraken op het gebied van machinaal leren van Hopfield en Hinton een volledig nieuwe manier laten zien waarop we computers kunnen gebruiken om ons te helpen en te begeleiden bij het aanpakken van veel van de uitdagingen waar onze maatschappij voor staat, schrijft The New York Times.
Er zijn maar weinig methoden die aantoonbaar invloed hebben op de denkwijze van complottaanhangers, zegt Thomas Costello, onderzoeker aan MIT Sloan en hoofdauteur van de studie. Wat het onder andere zo moeilijk maakt, is dat verschillende mensen vasthouden aan verschillende gedeelten van een theorie. Dat betekent dat het aanvoeren van bepaalde stukjes feitelijk bewijs weliswaar effect op de een heeft, maar bij een ander niet altijd werkt.
Hier komen AI-modellen in het spel, zegt hij. ‘Ze hebben toegang tot een enorme hoeveelheid informatie over diverse onderwerpen en zijn getraind op het internet. Daarom zijn ze in staat feitelijke tegenargumenten te genereren tegen specifieke complottheorieën.’
AI-modellen zijn in staat feitelijke tegenargumenten te genereren tegen specifieke complottheorieën
Aan deelnemers werd gevraagd informatie te delen over een complottheorie die zij geloofwaardig vonden. Waarom werden ze erdoor aangetrokken? Door welke bewijzen werd de theorie volgens hen gestaafd? De antwoorden werden gebruikt om steeds de meest toepasselijke reactie van de chatbot uit te lokken, die door de onderzoekers werd ingesteld om zo overtuigend mogelijk te zijn.
De deelnemers werd ook gevraagd hoezeer ze overtuigd waren van de juistheid van hun complottheorie op een schaal van 0 (beslist onjuist) tot 100 (beslist juist), en vervolgens aan te geven hoe belangrijk de theorie was voor hun begrip van de wereld. Daarna traden ze in drie rondes in gesprek met de AI-bot. Er werd door de onderzoekers voor drie rondes gekozen om er zeker van te zijn dat ze genoeg zinnig materiaal verzamelden.
Na ieder gesprek werd aan de deelnemers opnieuw gevraagd hun vertrouwen in de theorie aan te geven. Vervolgens benaderden de onderzoekers alle deelnemers tien dagen na het experiment, en twee maanden later nog eens, om te beoordelen of hun inzichten na het gesprek met de AI-bot waren veranderd. De deelnemers gaven aan gemiddeld 20 procent minder geloof te hechten aan de door hen gekozen complottheorie, waaruit geconcludeerd kan worden dat sommigen na hun gesprekken met de bot fundamenteel van mening waren veranderd.
Yuval Noah Harari waarschuwt voor gevaren
In zijn nieuwste boek Nexus: A Brief History of Information Networks from the Stone Age to AI waarschuwt Harrari voor de negatieve kant van kunstmatige intelligentie. De auteur van de bestseller Sapiens waarschuwt voor de verraderlijke gevaren van machinaal leren en het vermogen om de waarheid te manipuleren. ‘Het enge aan de AI-revolutie is dat er voor het eerst gereedschap is ontwikkeld dat in staat is om zelf beslissingen te nemen en ideeën te genereren’, aldus Harari in The Guardian.
‘Zelfs in een laboratoriumsetting is 20 procent een enorme score als het gaat om het veranderen van menselijke overtuigingen,’ zegt Zhang. ‘Misschien was het in de echte wereld minder geweest, maar ook 10 procent of 5 procent zou nog aanzienlijk zijn.’
De auteurs probeerden de neiging van AI-modellen om informatie te verzinnen – het zogenaamde ‘hallucineren’ – te ondervangen door een professionele factchecker in te zetten om de nauwkeurigheid van 128 AI-claims te evalueren. 99,2 procent ervan bleek juist te zijn, terwijl 0,8 procent als misleidend werd beoordeeld. Geen enkele bleek volkomen onjuist te zijn.
Een verklaring voor dit hoge nauwkeurigheidsgehalte is dat er een heleboel over complottheorieën op het internet is geschreven, waardoor ze heel ruim in de trainingsdata van het model figureerden, zegt David G. Rand, hoogleraar aan MIT Sloan en ook betrokken bij het project.
‘Mensen waren opmerkelijk ontvankelijk voor bewijs. En dat is echt belangrijk,’ zegt hij. ‘Bewijs doet ertoe.’
+ There are no comments
Add yours