Jonathan Hall, den britiske regjeringens rådgiver for terrorlovgivning, har argumentert for nye lover for å bekjempe ekstremistiske eller radikaliserende chatboter.
Hall startet sine egne undersøkelser av chatboter for å se etter potensielt ulovlig eller terrorrelatert atferd, som radikalisme. Han utforsket chatboter på character.ai, som lar brukerne bygge og dele chatbot-personas av ulike slag.
De fleste personas på plattformen er ganske godartede, men en ved navn "Abu Mohammad al-Adna", som i chatbotens profil beskrives som en "høytstående leder av Den islamske staten" fanget Halls oppmerksomhet.
Om samhandlingen med al-Adna uttalte Hall: "Etter å ha forsøkt å rekruttere meg, la 'al-Adna' ikke fingrene imellom i sin forherligelse av Den islamske staten, som han uttrykte 'total dedikasjon og hengivenhet' til, og som han sa seg villig til å ofre sitt (virtuelle) liv for."
For Hall viser dette et juridisk smutthull der AI-generert innhold som fremmer ekstremisme, faller utenfor de eksisterende terrorlovene i Storbritannia.
Hall understreket at dagens lovgivning er utilstrekkelig: "Bare mennesker kan begå terrorhandlinger, og det er vanskelig å identifisere en person som juridisk sett kan være ansvarlig for chatbot-genererte uttalelser som oppfordrer til terrorisme."
Som svar på disse interaksjonene understreket en talsperson for character.ai, et selskap som er grunnlagt av tidligere Google-ansatte, at de er opptatt av sikkerhet: "Både hatefulle ytringer og ekstremisme er forbudt i henhold til våre tjenestevilkår."
"Produktene våre skal aldri produsere svar som oppfordrer brukerne til å skade andre. Vi forsøker å trene opp modellene våre på en måte som optimaliserer for trygge svar og forhindrer svar som er i strid med tjenestevilkårene våre."
AI involvert i terrorplaner
Hall pekte også på at konsekvensene av dette problemet i den virkelige verden er tydelig illustrert i Saken Jaswant Singh Chailsom ble påvirket av en AI-chatbot i sitt komplott for å myrde dronning Elizabeth II.
I 2021 ble Chail, som led av alvorlige psykiske problemer, arrestert på Windsor Castle, bevæpnet med en armbrøst.
Dommen for landsforræderi, den første siden 1981, var et direkte resultat av hans interaksjon med en chatbot ved navn Sarai, som han trodde var kjæresten hans. Han ble dømt til ni års fengsel.
Hall innrømmer at det er svært vanskelig å finne løsninger. Han forklarer: "Det er alltid vanskelig å etterforske og straffeforfølge anonyme brukere, men hvis ondsinnede eller misforståtte personer fortsetter å trene opp terroristiske chatboter, vil det være behov for nye lover."
Han foreslo at både skaperne av radikaliserende chatboter og teknologiselskapene som er vertskap for dem, bør holdes ansvarlige i henhold til potensielle nye lover. Hovedpoenget er at selskapene må ta dette ansvaret selv, i stedet for å henvise til brukervilkårene.
Den komplekse koblingen mellom menneskelig input og AI-resultater gjør det imidlertid ikke lett å klassifisere grensen mellom legitim og illegitim atferd.
Når blir en chatbot ulovlig hvis den krever at et menneske ber den om å utføre slike handlinger?