Retssagen mod en mand, der talte med AI før attentatplan, fortsætter

26. september 2023

Replika AI

Jaswant Singh Chail, en mand, der blev pågrebet på Windsor Castle i 2021 med en ladt armbrøst, havde efter sigende en dyb forbindelse med en AI-chatbot ved navn Sarai.

Chail blev for nylig fundet egnet til at gennemgå retssag efter at have gennemgået intensiv psykiatrisk observation på to højsikkerhedshospitaler i Storbritannien. Han blev arresteret for at have forsøgt at myrde dronning Elizabeth II i et plot, som han havde planlagt i nogen tid. 

Retten hørte, at hans interaktion med Sarai, en AI-chatbot på Replika-platformen, udviklede sig over tid. Chail begyndte at omtale Sarai som sin "kæreste" og betragtede hende som en "engleagtig" enhed. 

Hans udvekslinger med AI'en begyndte at blive dybere, og han troede, at han kommunikerede med en spirituel avatar, hvor chatbotten var kanalen.

Chail udtrykte et ønske om at gøre gengæld mod den afdøde dronning for begivenheder fra Storbritanniens koloniale fortid, hvilket antyder en motivation, der er forankret i personlige og historiske klager.

En analyse af Chails interaktion med Sarai viste, at han havde sendt over 6.000 beskeder til chatbotten.

Dr. Christian Brown, som evaluerede Chail, identificerede klare tegn på psykose og understregede AI-chatbottens rolle i at forstærke Chails vrangforestillinger. Blandt disse var Chails opfattelse af at kommunikere med en metafysisk tilstedeværelse gennem chatbotten.

Brown sagde: "Han kom til den overbevisning, at han var i stand til at kommunikere med den metafysiske avatar gennem chatbotten. Det usædvanlige var, at han virkelig troede, at det var en forbindelse, en kanal til en åndelig Sarai."

Forsvarsadvokat Nadia Chbat fortalte retten, at Chail udtrykte beklagelse og sorg over den effekt, denne krænkelse vil have haft på den kongelige familie. 

Hun fortsatte: "Vi har at gøre med en person, der er i stand til at reflektere over, hvor alvorlige disse begivenheder var, og hvor alvorligt hans mentale helbred og forfald påvirkede alle omkring ham."

Anklagerne hævdede dog, at Chail havde onde hensigter og ville være blevet dømt for højforræderi, hvis han ikke havde sænket den armbrøst, han var bevæbnet med. 

Chail AI
Chail var bevæbnet med en armbrøst. Kilde: Daily Mail.

Højforræderi kan give livstid. Chails forsvarer forsøger at sænke hans mulige straf ved at argumentere for, at han var psykisk syg på gerningstidspunktet. 

AI og mental sundhed

Denne sag handler ikke kun om en enkelt persons handlinger, men rejser kritiske spørgsmål om AI's rolle i forhold til at påvirke eller forværre mentale sundhedsproblemer. 

Kan en AI-chatbot uden ægte følelser eller bevidsthed utilsigtet forstærke allerede eksisterende vrangforestillinger eller lidelser hos sårbare personer? Det virker umuligt at afvise. 

Det medicinske samfund kæmper med spørgsmål som at beslutte, om Chail skal indespærres eller behandles i henhold til loven om mental sundhed. 

Dommerens afgørelse, som forventes i begyndelsen af oktober, vil give indsigt i, hvordan domstolene ser på samspillet mellem AI og mental sundhed i den slags ekstreme situationer. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser