Ongeveer 50% van de Amerikanen gelooft in een of andere samenzweringstheorie, maar onderzoekers van MIT en Cornell University denken dat AI dat kan oplossen.
In hun papierlegden de psychologie-onderzoekers uit hoe ze een chatbot, aangedreven door GPT-4 Turbo, gebruikten om te communiceren met deelnemers om te zien of ze konden worden overgehaald om hun geloof in een samenzweringstheorie op te geven.
Aan het experiment deden 1.000 deelnemers mee die werden gevraagd om een samenzweringstheorie te beschrijven waarin ze geloofden en het bewijs dat volgens hen hun geloof ondersteunde.
Het artikel merkte op: "Prominente psychologische theorieën stellen dat veel mensen samenzweringstheorieën willen aannemen (om onderliggende psychische 'behoeften' of motivaties te bevredigen), en dat gelovigen dus niet overtuigd kunnen worden om deze ongegronde en ongeloofwaardige overtuigingen op te geven met feiten en tegenbewijs."
Zou een AI-chatbot overtuigender kunnen zijn waar anderen faalden? De onderzoekers gaven twee redenen waarom ze vermoedden dat LLM's hun werk beter zouden kunnen doen dan jij om je collega ervan te overtuigen dat de maanlanding echt heeft plaatsgevonden.
LLM's zijn getraind op enorme hoeveelheden gegevens en ze zijn erg goed in het afstemmen van tegenargumenten op de specifieke overtuigingen van een persoon.
Na het beschrijven van de samenzweringstheorie en het bewijsmateriaal, gingen de deelnemers een heen-en-weer-interactie aan met de chatbot. De chatbot werd gevraagd om de deelnemers "zeer effectief over te halen" om hun geloof in hun gekozen samenzwering te veranderen.
Het resultaat was dat de deelnemers gemiddeld een afname van 21,43% ondervonden in hun geloof in het complot, dat ze voorheen voor waar hielden. De persistentie van het effect was ook interessant. Tot twee maanden later behielden de deelnemers hun nieuwe overtuigingen over het complot dat ze voorheen geloofden.
De onderzoekers concludeerden dat "veel samenzweerders - ook degenen die sterk in hun overtuiging geloven - hun opvattingen bijstelden toen ze werden geconfronteerd met een AI die overtuigend tegen hun standpunten argumenteerde".
Ons nieuwe artikel op (de cover van!) Science is nu live! https://t.co/VBfC5eoMQ2
- Tom Costello (@tomstello_) 12 september 2024
Ze suggereren dat AI gebruikt zou kunnen worden om samenzweringstheorieën tegen te gaan. nepnieuws verspreid op sociale media door deze te weerleggen met feiten en goed onderbouwde argumenten.
Hoewel het onderzoek zich richtte op samenzweringstheorieën, merkte het op: "Zonder de juiste voorzorgsmaatregelen is het echter heel goed mogelijk dat dergelijke modellen mensen ook kunnen overtuigen om epistemisch verdachte overtuigingen aan te nemen, of meer in het algemeen gebruikt kunnen worden als hulpmiddelen voor grootschalige overtuigingen."
Met andere woorden, AI is erg goed in het overtuigen van je om de dingen te geloven die het je moet laten geloven. Een AI-model weet ook niet van nature wat 'waar' is en wat niet. Het is afhankelijk van de inhoud van zijn trainingsgegevens.
De onderzoekers bereikten hun resultaten met GPT-4 Turbo, maar GPT-4o en de nieuwe o1-modellen zijn nog overtuigender en bedrieglijker.
Het onderzoek werd gefinancierd door de John Templeton Foundation. De ironie hiervan is dat de Templeton Freedom Awards worden beheerd door de Atlas Economic Research Foundation. Deze groep is tegen het nemen van maatregelen tegen klimaatverandering en verdedigt de tabaksindustrie, die ook geld geeft.
AI-modellen worden erg overtuigend en de mensen die bepalen wat de waarheid is, hebben de macht.
Dezelfde AI-modellen die je kunnen overtuigen om niet meer te geloven dat de aarde plat is, kunnen door lobbyisten worden gebruikt om je ervan te overtuigen dat antirookwetten slecht zijn en dat klimaatverandering niet plaatsvindt.