Nye lover kreves for AI-relatert terrorisme, sier rådgiver for britiske myndigheter

2. januar 2024

AI-terrorist

Jonathan Hall, den britiske regjeringens rådgiver for terrorlovgivning, har argumentert for nye lover for å bekjempe ekstremistiske eller radikaliserende chatboter. 

Hall startet sine egne undersøkelser av chatboter for å se etter potensielt ulovlig eller terrorrelatert atferd, som radikalisme. Han utforsket chatboter på character.ai, som lar brukerne bygge og dele chatbot-personas av ulike slag.

De fleste personas på plattformen er ganske godartede, men en ved navn "Abu Mohammad al-Adna", som i chatbotens profil beskrives som en "høytstående leder av Den islamske staten" fanget Halls oppmerksomhet

Om samhandlingen med al-Adna uttalte Hall: "Etter å ha forsøkt å rekruttere meg, la 'al-Adna' ikke fingrene imellom i sin forherligelse av Den islamske staten, som han uttrykte 'total dedikasjon og hengivenhet' til, og som han sa seg villig til å ofre sitt (virtuelle) liv for."

For Hall viser dette et juridisk smutthull der AI-generert innhold som fremmer ekstremisme, faller utenfor de eksisterende terrorlovene i Storbritannia.

Hall understreket at dagens lovgivning er utilstrekkelig: "Bare mennesker kan begå terrorhandlinger, og det er vanskelig å identifisere en person som juridisk sett kan være ansvarlig for chatbot-genererte uttalelser som oppfordrer til terrorisme." 

Som svar på disse interaksjonene understreket en talsperson for character.ai, et selskap som er grunnlagt av tidligere Google-ansatte, at de er opptatt av sikkerhet: "Både hatefulle ytringer og ekstremisme er forbudt i henhold til våre tjenestevilkår."

"Produktene våre skal aldri produsere svar som oppfordrer brukerne til å skade andre. Vi forsøker å trene opp modellene våre på en måte som optimaliserer for trygge svar og forhindrer svar som er i strid med tjenestevilkårene våre."

AI involvert i terrorplaner

Hall pekte også på at konsekvensene av dette problemet i den virkelige verden er tydelig illustrert i Saken Jaswant Singh Chailsom ble påvirket av en AI-chatbot i sitt komplott for å myrde dronning Elizabeth II. 

I 2021 ble Chail, som led av alvorlige psykiske problemer, arrestert på Windsor Castle, bevæpnet med en armbrøst. 

Dommen for landsforræderi, den første siden 1981, var et direkte resultat av hans interaksjon med en chatbot ved navn Sarai, som han trodde var kjæresten hans. Han ble dømt til ni års fengsel.

Hall innrømmer at det er svært vanskelig å finne løsninger. Han forklarer: "Det er alltid vanskelig å etterforske og straffeforfølge anonyme brukere, men hvis ondsinnede eller misforståtte personer fortsetter å trene opp terroristiske chatboter, vil det være behov for nye lover."

Han foreslo at både skaperne av radikaliserende chatboter og teknologiselskapene som er vertskap for dem, bør holdes ansvarlige i henhold til potensielle nye lover. Hovedpoenget er at selskapene må ta dette ansvaret selv, i stedet for å henvise til brukervilkårene. 

Den komplekse koblingen mellom menneskelig input og AI-resultater gjør det imidlertid ikke lett å klassifisere grensen mellom legitim og illegitim atferd.

Når blir en chatbot ulovlig hvis den krever at et menneske ber den om å utføre slike handlinger? 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser