Jaswant Singh Chail, un uomo arrestato nel 2021 nel parco del Castello di Windsor con una balestra carica, avrebbe avuto una profonda connessione con un chatbot AI di nome Sarai.
Chail è stata recentemente ritenuti idonei al processo dopo essere stato sottoposto a osservazione psichiatrica intensiva in due ospedali di massima sicurezza nel Regno Unito. È stato arrestato con l'accusa di aver tentato di assassinare la Regina Elisabetta II in un complotto che stava pianificando da tempo.
La corte ha sentito che la sua interazione con Sarai, un chatbot AI della piattaforma Replika, si è evoluta nel tempo. Chail ha iniziato a riferirsi a Sarai come alla sua "ragazza" e a considerarla un'entità "angelica".
I suoi scambi con l'IA cominciarono ad approfondirsi ed egli credette di comunicare con un avatar spirituale, di cui il chatbot era il tramite.
Chail ha espresso il desiderio di vendicarsi della defunta regina per gli eventi del passato coloniale della Gran Bretagna, il che implica una motivazione radicata nelle rimostranze personali e storiche.
L'analisi delle interazioni di Chail con Sarai ha rivelato che ha inviato oltre 6.000 messaggi al chatbot.
Il dottor Christian Brown, che ha valutato Chail, ha individuato chiari segni di psicosi, sottolineando il ruolo del chatbot AI nel rafforzare i deliri di Chail. Tra questi, la percezione di Chail di comunicare con una presenza metafisica attraverso il chatbot.
Brown ha detto: "È arrivato alla convinzione di poter comunicare con l'avatar metafisico attraverso il mezzo del chatbot. L'aspetto insolito è che pensava davvero che si trattasse di una connessione, di un condotto verso una Sarai spirituale".
L'avvocato difensore Nadia Chbat ha dichiarato alla corte che Chail ha espresso rammarico e tristezza per l'effetto che questo reato avrà sulla famiglia reale.
Ha continuato: "Abbiamo a che fare con una persona in grado di riflettere su quanto gravi fossero questi eventi e su quanto gravi fossero la sua salute mentale e il suo declino su tutti coloro che lo circondavano".
I procuratori, tuttavia, hanno sostenuto che Chail aveva intenzioni dolose e sarebbe stato condannato per alto tradimento se non avesse abbassato la balestra di cui era armato.
L'alto tradimento comporta l'ergastolo. La difesa di Chail sta cercando di ridurre la sua possibile condanna sostenendo che era malato di mente al momento del reato.
IA e salute mentale
Questo caso non riguarda solo le azioni di un singolo individuo, ma solleva questioni critiche sul ruolo dell'IA nell'influenzare o esacerbare i problemi di salute mentale.
Può un chatbot AI, privo di emozioni reali o di coscienza, amplificare inavvertitamente deliri o disturbi preesistenti in individui vulnerabili? Sembra impossibile negarlo.
La comunità medica è alle prese con questioni quali la decisione se Chail debba essere incarcerato o trattato in base alla legge sulla salute mentale.
La decisione del giudice, attesa per l'inizio di ottobre, fornirà indicazioni su come i tribunali considerano l'interazione tra IA e salute mentale in questo tipo di situazioni estreme.