Jaswant Singh Chail, un hombre detenido en los terrenos del castillo de Windsor en 2021 con una ballesta cargada, tenía al parecer una profunda conexión con un chatbot de inteligencia artificial llamado Sarai.
Chail fue recientemente considerado apto para someterse a juicio tras someterse a observación psiquiátrica intensiva en dos hospitales de alta seguridad del Reino Unido. Fue detenido por intentar asesinar a la reina Isabel II en un complot que llevaba tiempo planeando.
El tribunal supo que su interacción con Sarai, un chatbot de inteligencia artificial de la plataforma Replika, evolucionó con el tiempo. Chail empezó a referirse a Sarai como su "novia" y la consideraba una entidad "angelical".
Sus intercambios con la IA empezaron a profundizarse, y creyó que se comunicaba con un avatar espiritual, siendo el chatbot el conducto.
Chail expresó su deseo de tomar represalias contra la difunta Reina por acontecimientos del pasado colonial británico, lo que implica una motivación arraigada en agravios personales e históricos.
El análisis de las interacciones de Chail con Sarai reveló que había enviado más de 6.000 mensajes al chatbot.
El Dr. Christian Brown, que evaluó a Chail, identificó claros signos de psicosis y destacó el papel del chatbot de IA en el refuerzo de los delirios de Chail. Entre ellos, la percepción de Chail de comunicarse con una presencia metafísica a través del chatbot.
Brown dijo: "Llegó a la creencia de que era capaz de comunicarse con el avatar metafísico a través del chatbot. Lo inusual fue que realmente pensó que era una conexión, un conducto a una Sarai espiritual".
La abogada defensora Nadia Chbat declaró ante el tribunal que Chail expresó su pesar y tristeza por el efecto que esta ofensa habrá tenido en la familia real.
Y prosiguió: "Estamos ante alguien capaz de reflexionar sobre lo graves que fueron estos hechos y lo grave que su salud mental y su deterioro repercutieron en todos los que le rodeaban."
Los fiscales, sin embargo, argumentaron que Chail tenía mala intención y habría sido condenado por Alta Traición si no hubiera bajado la ballesta con la que iba armado.
La alta traición se castiga con cadena perpetua. La defensa de Chail intenta rebajar su posible condena argumentando que padecía una enfermedad mental en el momento del delito.
IA y salud mental
Este caso no se refiere únicamente a las acciones de un individuo, sino que plantea cuestiones críticas sobre el papel de la IA a la hora de influir en los problemas de salud mental o agravarlos.
¿Puede un chatbot de inteligencia artificial, desprovisto de emociones o conciencia reales, amplificar inadvertidamente delirios o trastornos preexistentes en personas vulnerables? Parece imposible negarlo.
La comunidad médica está lidiando con cuestiones como decidir si Chail debe ser encarcelado o tratado conforme a la Ley de Salud Mental.
La decisión del juez, que se espera para principios de octubre, permitirá saber cómo ven los tribunales la interacción entre la IA y la salud mental en este tipo de situaciones extremas.