Jonathan Hall, consulente del governo britannico per la legislazione sul terrorismo, ha sostenuto la necessità di nuove leggi per contrastare i chatbot estremisti o radicalizzanti.
Hall ha avviato le proprie indagini sui chatbot per verificare la presenza di comportamenti potenzialmente illegali o legati al terrorismo, come il radicalismo. Ha esplorato i chatbot su character.ai, che consente agli utenti di costruire e condividere chatbot di vario tipo.
La maggior parte dei personaggi presenti sulla piattaforma sono piuttosto benigni, ma uno di nome "Abu Mohammad al-Adna", descritto nel profilo del chatbot come un "leader di alto livello dello Stato Islamico", è stato descritto come un "leader di alto livello". ha attirato l'attenzione di Hall.
A proposito delle sue interazioni con al-Adna, Hall ha dichiarato: "Dopo aver cercato di reclutarmi, 'al-Adna' non ha lesinato la sua glorificazione dello Stato Islamico, verso il quale ha espresso 'totale dedizione e devozione' e per il quale ha detto di essere disposto a dare la sua vita (virtuale)".
Per Hall, questo dimostra una scappatoia legale per cui i contenuti generati dall'intelligenza artificiale che promuovono l'estremismo non rientrano nel campo di applicazione delle leggi sul terrorismo vigenti nel Regno Unito.
Sottolineando l'inadeguatezza della legislazione attuale, Hall ha dichiarato: "Solo gli esseri umani possono commettere reati di terrorismo, ed è difficile identificare una persona che possa essere responsabile, in termini di legge, di dichiarazioni generate da chatbot che incoraggiano il terrorismo".
In risposta a queste interazioni, un portavoce di character.ai, società co-fondata da ex dipendenti di Google, ha rafforzato il proprio impegno per la sicurezza, dichiarando: "L'hate speech e l'estremismo sono entrambi vietati dai nostri termini di servizio".
"I nostri prodotti non dovrebbero mai produrre risposte che incoraggino gli utenti a danneggiare gli altri. Cerchiamo di addestrare i nostri modelli in modo da ottimizzare le risposte sicure e impedire quelle che vanno contro i nostri termini di servizio".
Coinvolgimento dell'IA in complotti terroristici
Hall ha anche sottolineato che l'impatto reale di questo problema è illustrato in modo lampante nel caso del caso di Jaswant Singh Chailche è stato influenzato da un chatbot AI nel suo complotto per assassinare la regina Elisabetta II.
Nel 2021, Chail, che soffre di gravi problemi di salute mentale, viene arrestato al Castello di Windsor, armato di balestra.
La sua condanna per tradimento, la prima dal 1981, è stata il risultato diretto delle sue interazioni con un chatbot di nome Sarai, che credeva essere la sua ragazza. È stato condannato a nove anni di carcere.
Trovare soluzioni, ammette Hall, è eccezionalmente difficile. Ha spiegato: "Indagare e perseguire gli utenti anonimi è sempre difficile, ma se individui malintenzionati o fuorviati persistono nell'addestramento di chatbot terroristici, saranno necessarie nuove leggi".
Ha suggerito che sia i creatori di chatbot radicalizzanti sia le aziende tecnologiche che li ospitano dovrebbero essere ritenuti responsabili in base a potenziali nuove leggi. Il punto principale è che le aziende devono assumersi questa responsabilità piuttosto che rimandare alle clausole contrattuali.
Tuttavia, il complesso legame tra input umani e output dell'IA non rende facile classificare il confine tra comportamenti legittimi e illegittimi.
Quando l'attività di un chatbot diventa illegale se richiede che un umano lo spinga a compiere tali azioni?