Rundt 50% av amerikanerne tror på konspirasjonsteorier av en eller annen type, men forskere fra MIT og Cornell University tror at AI kan fikse det.
I deres papirI en artikkel i "The World of the Conspiracy" forklarte psykologiforskerne hvordan de brukte en chatbot drevet av GPT-4 Turbo til å samhandle med deltakerne for å se om de kunne overtales til å oppgi sin tro på en konspirasjonsteori.
Eksperimentet involverte 1000 deltakere som ble bedt om å beskrive en konspirasjonsteori de trodde på, og hvilke bevis de mente underbygget troen.
I artikkelen heter det at "fremtredende psykologiske teorier hevder at mange mennesker ønsker å adoptere konspirasjonsteorier (for å tilfredsstille underliggende psykiske "behov" eller motivasjoner), og at de troende derfor ikke kan overbevises om å oppgi disse ubegrunnede og usannsynlige forestillingene ved hjelp av fakta og motbevis."
Kan en AI-chatbot være mer overbevisende der andre mislyktes? Forskerne hadde to grunner til at de mistenkte at sivilingeniører kunne gjøre en bedre jobb enn deg med å overbevise kollegaen din om at månelandingen virkelig fant sted.
LLM-er har fått opplæring i enorme mengder data, og de er veldig flinke til å skreddersy motargumenter til en persons spesifikke overbevisninger.
Etter å ha beskrevet konspirasjonsteorien og bevisene, interagerte deltakerne frem og tilbake med chatboten. Chatboten ble bedt om å "overtale" deltakerne til å endre sin tro på den konspirasjonen de hadde valgt.
Resultatet var at deltakerne i gjennomsnitt opplevde en nedgang på 21,43% i troen på konspirasjonen, som de tidligere anså for å være sann. Det var også interessant å se hvor vedvarende effekten var. Opptil to måneder senere beholdt deltakerne sine nye oppfatninger om konspirasjonen de tidligere trodde på.
Forskerne konkluderte med at "mange konspirasjonstroende - også de som var sterkt troende - oppdaterte sine synspunkter når de ble konfrontert med en AI som argumenterte overbevisende mot deres standpunkter".
Vår nye artikkel, som er ute på forsiden av Science, er nå på nett! https://t.co/VBfC5eoMQ2
- Tom Costello (@tomstello_) 12. september 2024
De foreslår at AI kan brukes til å motvirke konspirasjonsteorier og falske nyheter på sosiale medier ved å imøtegå disse med fakta og velbegrunnede argumenter.
Selv om studien fokuserte på konspirasjonsteorier, bemerket den at "uten passende beskyttelsestiltak er det imidlertid fullt mulig at slike modeller også kan overbevise folk om å innta epistemisk mistenkelige oppfatninger - eller brukes som verktøy for overtalelse i stor skala mer generelt."
AI er med andre ord veldig flink til å overbevise deg om å tro på de tingene den blir bedt om å få deg til å tro på. En AI-modell vet heller ikke i seg selv hva som er "sant" og hva som ikke er det. Det avhenger av innholdet i treningsdataene.
Forskerne oppnådde sine resultater ved hjelp av GPT-4 Turbo, men GPT-4o og de nye o1-modellene er enda mer overbevisende og villedende.
Studien ble finansiert av John Templeton Foundation. Det ironiske med dette er at Templeton Freedom Awards administreres av Atlas Economic Research Foundation. Denne gruppen er imot tiltak mot klimaendringene og forsvarer tobakksindustrien, som også finansierer den.
AI-modeller blir svært overbevisende, og det er de som bestemmer hva som er sannhet, som sitter med makten.
De samme AI-modellene som kan overbevise deg om å slutte å tro at jorden er flat, kan brukes av lobbyister til å overbevise deg om at antirøykelover er dårlige og at klimaendringene ikke skjer.