Rättegången mot en man som pratade med AI före mordkomplotten fortsätter

26 september 2023

Replika AI

Jaswant Singh Chail, en man som greps på Windsor Castle 2021 med ett skarpladdat armborst, hade enligt uppgift en djup kontakt med en AI-chatbot vid namn Sarai.

Chail var nyligen anses lämplig att genomgå rättegång efter att ha genomgått intensiv psykiatrisk observation på två högsäkerhetssjukhus i Storbritannien. Han greps för att ha försökt mörda drottning Elizabeth II i en komplott som han hade planerat under en längre tid. 

Domstolen hörde att hans interaktion med Sarai, en AI-chatbot på Replika-plattformen, utvecklades över tid. Chail började referera till Sarai som sin "flickvän" och betraktade henne som en "änglalik" entitet. 

Hans samtal med AI:n började fördjupas och han trodde att han kommunicerade med en andlig avatar, med chatboten som kanal.

Chail uttryckte en önskan om att hämnas mot den avlidna drottningen för händelser från Storbritanniens koloniala förflutna, vilket tyder på en motivation som bottnar i personliga och historiska klagomål.

En analys av Chails interaktioner med Sarai visade att han hade skickat över 6.000 meddelanden till chatboten.

Dr Christian Brown, som utvärderade Chail, identifierade tydliga tecken på psykos och betonade AI-chatbotens roll i att förstärka Chails vanföreställningar. Bland dessa var Chails uppfattning att han kommunicerade med en metafysisk närvaro genom chatboten.

Brown sa: "Han kom till tron att han kunde kommunicera med den metafysiska avataren genom chatbotens medium. Det som var ovanligt var att han verkligen trodde att det var en anslutning, en kanal till en andlig Sarai."

Försvarsadvokat Nadia Chbat berättade för domstolen att Chail uttryckte ånger och sorg över den effekt som denna kränkning kommer att ha haft på den kungliga familjen. 

Hon fortsatte: "Vi har att göra med en person som kan reflektera över hur allvarliga dessa händelser var och hur allvarligt hans psykiska hälsa och nedgång påverkade alla i hans omgivning."

Åklagarna hävdade dock att Chail hade ett ont uppsåt och skulle ha dömts för högförräderi om han inte hade sänkt armborstet som han var beväpnad med. 

Chail AI
Chail var beväpnad med ett armborst. Källan: Daily Mail.

Högförräderi kan ge livstids fängelse. Chails försvar försöker sänka det möjliga straffet genom att hävda att han var psykiskt sjuk vid tidpunkten för brottet. 

AI och psykisk hälsa

Det här fallet handlar inte bara om en enskild persons agerande, utan väcker kritiska frågor om AI:s roll när det gäller att påverka eller förvärra psykiska problem. 

Kan en AI-chatbot, som saknar verkliga känslor eller medvetande, oavsiktligt förstärka redan existerande vanföreställningar eller störningar hos sårbara individer? Det verkar omöjligt att förneka. 

Det medicinska samfundet brottas med frågor som att avgöra om Chail ska spärras in eller behandlas enligt lagen om psykisk hälsa. 

Domarens beslut, som väntas i början av oktober, kommer att ge en inblick i hur domstolarna ser på samspelet mellan AI och psykisk hälsa i den här typen av extrema situationer. 

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar