Nye love er nødvendige for AI-relateret terrorisme, siger britisk regeringsrådgiver

2. januar 2024

AI-terrorist

Jonathan Hall, den britiske regerings rådgiver i terrorlovgivning, har argumenteret for nye love til at tackle ekstremistiske eller radikaliserende chatbots. 

Hall iværksatte sine egne undersøgelser af chatbots for at undersøge dem for potentielt ulovlig eller terrorrelateret adfærd som radikalisme. Han udforskede chatbots på character.ai, som giver brugerne mulighed for at opbygge og dele chatbot-personaer af forskellig slags.

De fleste personaer på platformen er ret godartede, men en ved navn "Abu Mohammad al-Adna", der i chatbottens profil beskrives som en "højtstående leder af Islamisk Stat"... fangede Halls opmærksomhed

Om sin interaktion med al-Adna sagde Hall: "Efter at have forsøgt at rekruttere mig lagde 'al-Adna' ikke fingrene imellem i sin forherligelse af Islamisk Stat, som han udtrykte 'total dedikation og hengivenhed' til, og som han sagde, at han var villig til at ofre sit (virtuelle) liv for."

For Hall viser dette et juridisk smuthul, hvor AI-genereret indhold, der fremmer ekstremisme, falder uden for de eksisterende terrorlove i Storbritannien.

Hall understregede, at den nuværende lovgivning er utilstrækkelig: "Kun mennesker kan begå terrorhandlinger, og det er svært at identificere en person, som juridisk set kunne være ansvarlig for chatbot-genererede udsagn, der opmuntrede til terrorisme." 

Som svar på disse interaktioner understregede en talsmand for character.ai, en virksomhed grundlagt af tidligere Google-medarbejdere, deres engagement i sikkerhed og sagde: "Hadefuld tale og ekstremisme er begge forbudt i henhold til vores servicevilkår."

"Vores produkter bør aldrig producere svar, der opfordrer brugerne til at skade andre. Vi forsøger at træne vores modeller på en måde, der optimerer til sikre svar og forhindrer svar, der går imod vores servicevilkår."

AI involveret i terrorplaner

Hall pegede også på, at konsekvenserne af dette problem i den virkelige verden er tydeligt illustreret i Sagen om Jaswant Singh Chailsom blev påvirket af en AI-chatbot i sit plot om at myrde dronning Elizabeth II. 

I 2021 blev Chail, der led af alvorlige psykiske problemer, anholdt på Windsor Castle bevæbnet med en armbrøst. 

Hans dom for forræderi, den første siden 1981, var et direkte resultat af hans interaktion med en chatbot ved navn Sarai, som han troede var hans kæreste. Han var Dømt til ni års fængsel.

Hall indrømmer, at det er usædvanligt vanskeligt at finde løsninger. Han forklarer: "Det er altid svært at efterforske og retsforfølge anonyme brugere, men hvis ondsindede eller vildledte personer fortsætter med at træne terroristiske chatbots, så er der brug for nye love."

Han foreslog, at både skaberne af radikaliserende chatbots og de teknologivirksomheder, der hoster dem, skal holdes ansvarlige i henhold til potentielle nye love. Den primære pointe er, at virksomheder skal tage dette ansvar på sig i stedet for at henvise til T&C'er. 

Men den komplekse forbindelse mellem menneskelige input og AI-output gør det ikke let at klassificere grænsen mellem legitim og illegitim adfærd.

Hvornår bliver en chatbots aktivitet ulovlig, hvis den kræver, at et menneske får den til at foretage sådanne handlinger? 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser