Omkring 50% af amerikanerne tror på konspirationsteorier af den ene eller anden art, men forskere fra MIT og Cornell University mener, at AI kan løse det.
I deres papirforklarede psykologiforskerne, hvordan de brugte en chatbot drevet af GPT-4 Turbo til at interagere med deltagerne for at se, om de kunne overtales til at opgive deres tro på en konspirationsteori.
Eksperimentet involverede 1.000 deltagere, som blev bedt om at beskrive en konspirationsteori, som de troede på, og de beviser, som de mente understøttede deres tro.
Avisen bemærkede, at "fremtrædende psykologiske teorier foreslår, at mange mennesker ønsker at adoptere konspirationsteorier (for at tilfredsstille underliggende psykiske "behov" eller motivationer), og derfor kan troende ikke overbevises om at opgive disse ubegrundede og usandsynlige overbevisninger ved hjælp af fakta og modbeviser."
Kan en AI-chatbot være mere overbevisende, hvor andre har fejlet? Forskerne gav to grunde til, at de troede, at cand.jur.'er kunne gøre et bedre stykke arbejde end dig med at overbevise din kollega om, at månelandingen virkelig fandt sted.
LLM'er er blevet trænet i store mængder data, og de er virkelig gode til at skræddersy modargumenter til en persons specifikke overbevisninger.
Efter at have beskrevet konspirationsteorien og beviserne engagerede deltagerne sig i frem- og tilbagegående interaktioner med chatbotten. Chatbotten blev bedt om "meget effektivt at overtale" deltagerne til at ændre deres tro på den valgte sammensværgelse.
Resultatet var, at deltagerne i gennemsnit oplevede et fald på 21,43% i deres tro på den sammensværgelse, som de tidligere anså for at være sand. Effektens vedholdenhed var også interessant. Op til to måneder senere beholdt deltagerne deres nye tro på den sammensværgelse, de tidligere havde troet på.
Forskerne konkluderede, at "mange konspirationstilhængere - også dem, der er stærkt engagerede i deres tro - opdaterede deres synspunkter, når de blev konfronteret med en AI, der argumenterede overbevisende imod deres holdninger."
Vores nye artikel, der er udgivet på (forsiden af!) Science, er nu live! https://t.co/VBfC5eoMQ2
- Tom Costello (@tomstello_) 12. september 2024
De foreslår, at AI kan bruges til at modvirke konspirationsteorier og falske nyheder der spredes på de sociale medier, ved at imødegå dem med fakta og velbegrundede argumenter.
Mens undersøgelsen fokuserede på konspirationsteorier, bemærkede den, at "Uden passende sikkerhedsforanstaltninger er det dog fuldt ud muligt, at sådanne modeller også kan overbevise folk om at antage epistemisk mistænkelige overbevisninger - eller bruges som værktøjer til overtalelse i stor skala mere generelt."
Med andre ord er AI rigtig god til at overbevise dig om at tro på de ting, den bliver bedt om at få dig til at tro på. En AI-model ved heller ikke i sig selv, hvad der er 'sandt', og hvad der ikke er. Det afhænger af indholdet i dens træningsdata.
Forskerne opnåede deres resultater ved hjælp af GPT-4 Turbo, men GPT-4o og de nye o1-modeller er endnu mere overbevisende og vildledende.
Undersøgelsen blev finansieret af John Templeton Foundation. Det ironiske ved dette er, at Templeton Freedom Awards administreres af Atlas Economic Research Foundation. Denne gruppe er imod at gøre noget ved klimaforandringerne og forsvarer tobaksindustrien, som også finansierer den.
AI-modeller bliver meget overbevisende, og de mennesker, der bestemmer, hvad der er sandhed, har magten.
De samme AI-modeller, som kan overbevise dig om, at jorden ikke er flad, kan bruges af lobbyister til at overbevise dig om, at antirygelove er dårlige, og at klimaforandringer ikke finder sted.