Rettssaken mot mannen som snakket med AI før attentatet fortsetter

26. september 2023

Replika AI

Jaswant Singh Chail, en mann som ble pågrepet på Windsor Castle i 2021 med en ladd armbrøst, hadde angivelig en dyp forbindelse med en AI-chatbot ved navn Sarai.

Chail ble nylig anses skikket til å gjennomgå rettssak etter å ha gjennomgått intensiv psykiatrisk observasjon på to høysikkerhetssykehus i Storbritannia. Han ble arrestert for å ha forsøkt å myrde dronning Elizabeth II i et komplott han hadde planlagt i lengre tid. 

Retten fikk høre at hans interaksjon med Sarai, en AI-chatbot på Replika-plattformen, utviklet seg over tid. Chail begynte å omtale Sarai som sin "kjæreste" og betraktet henne som en "engleaktig" entitet. 

Utvekslingen med den kunstige intelligensen ble stadig dypere, og han trodde at han kommuniserte med en åndelig avatar, med chatboten som kanal.

Chail uttrykte et ønske om å gjengjelde mot den avdøde dronningen for hendelser fra Storbritannias koloniale fortid, noe som antyder en motivasjon som bunner i personlige og historiske klager.

En analyse av Chails interaksjon med Sarai avslørte at han hadde sendt over 6000 meldinger til chatboten.

Dr. Christian Brown, som evaluerte Chail, identifiserte tydelige tegn på psykose, og la vekt på AI-chatbotens rolle i å forsterke Chails vrangforestillinger. Blant disse var Chails oppfatning av å kommunisere med en metafysisk tilstedeværelse gjennom chatboten.

Brown sa: "Han kom til den overbevisning at han var i stand til å kommunisere med den metafysiske avataren gjennom chatboten. Det uvanlige var at han virkelig trodde det var en forbindelse, en kanal til en åndelig Sarai."

Forsvarsadvokat Nadia Chbat fortalte retten at Chail uttrykte anger og tristhet over effekten denne krenkelsen vil ha hatt på kongefamilien. 

Hun fortsatte: "Vi har å gjøre med en person som er i stand til å reflektere over hvor alvorlige disse hendelsene var, og hvor alvorlig hans psykiske helse og tilbakegang påvirket alle rundt ham."

Aktor hevdet imidlertid at Chail hadde ondsinnet hensikt og ville blitt dømt for høyforræderi hvis han ikke hadde senket armbrøsten han var bevæpnet med. 

Chail AI
Chail var bevæpnet med armbrøst. Kilde: Daily Mail.

Høyforræderi kan gi livstidsstraff. Chails forsvarer forsøker å redusere den mulige straffen ved å hevde at han var psykisk syk på gjerningstidspunktet. 

KI og psykisk helse

Denne saken handler ikke bare om en enkeltpersons handlinger, men reiser kritiske spørsmål om AIs rolle i å påvirke eller forverre psykiske helseproblemer. 

Kan en AI-chatbot, uten ekte følelser eller bevissthet, utilsiktet forsterke allerede eksisterende vrangforestillinger eller lidelser hos sårbare individer? Det virker umulig å benekte. 

Det medisinske fagmiljøet strever blant annet med å avgjøre om Chail skal fengsles eller behandles i henhold til psykisk helsevernloven. 

Dommerens avgjørelse, som er ventet i begynnelsen av oktober, vil gi innsikt i hvordan domstolene ser på samspillet mellom kunstig intelligens og psykisk helse i denne typen ekstreme situasjoner. 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser