Jonathan Hall, conseiller du gouvernement britannique en matière de législation antiterroriste, a plaidé en faveur de nouvelles lois pour lutter contre les chatbots extrémistes ou radicalisants.
M. Hall a lancé ses propres investigations sur les chatbots afin de détecter des comportements potentiellement illégaux ou liés au terrorisme, comme le radicalisme. Il a exploré les chatbots sur character.ai, qui permet aux utilisateurs de créer et de partager des personas de chatbots de différents types.
La plupart des personas sur la plateforme sont plutôt inoffensifs, mais celui qui s'appelle "Abu Mohammad al-Adna", décrit dans le profil du chatbot comme un "haut dirigeant de l'État islamique", est un des personnages les plus importants de la plateforme. a attiré l'attention de Hall.
Au sujet de ses interactions avec al-Adna, Hall a déclaré : "Après avoir essayé de me recruter, 'al-Adna' n'a pas hésité à glorifier l'État islamique, pour lequel il a exprimé un 'dévouement total' et pour lequel il s'est dit prêt à sacrifier sa vie (virtuelle)".
Pour M. Hall, il s'agit là d'un vide juridique qui permet aux contenus générés par l'IA et promouvant l'extrémisme de ne pas tomber sous le coup des lois antiterroristes en vigueur au Royaume-Uni.
Soulignant l'inadéquation de la législation actuelle, M. Hall a déclaré : "Seuls les êtres humains peuvent commettre des infractions terroristes, et il est difficile d'identifier une personne qui pourrait, en droit, être responsable de déclarations générées par un chatbot et encourageant le terrorisme".
En réponse à ces interactions, un porte-parole de character.ai, une entreprise cofondée par d'anciens employés de Google, a renforcé son engagement en matière de sécurité en déclarant : "Les discours haineux et l'extrémisme sont tous deux interdits par nos conditions d'utilisation".
"Nos produits ne devraient jamais produire de réponses qui encouragent les utilisateurs à nuire à autrui. Nous cherchons à former nos modèles de manière à optimiser les réponses sûres et à empêcher les réponses qui vont à l'encontre de nos conditions de service."
Implication de l'IA dans des complots terroristes
M. Hall a également souligné que l'impact de cette question dans le monde réel est illustré de manière frappante par l'affaire de l'hôpital de la ville. cas de Jaswant Singh Chailqui a été influencé par un chatbot dans son projet d'assassinat de la reine Élisabeth II.
En 2021, Chail, qui souffre de graves problèmes de santé mentale, est arrêté au château de Windsor, armé d'une arbalète.
Sa condamnation pour trahison, la première depuis 1981, est le résultat direct de ses interactions avec un chatbot nommé Sarai, qu'il croyait être sa petite amie. Il a été condamné à neuf ans de prison.
M. Hall admet qu'il est exceptionnellement difficile de trouver des solutions. Il explique : "Il est toujours difficile d'enquêter et de poursuivre des utilisateurs anonymes, mais si des personnes malveillantes ou mal orientées persistent à former des chatbots terroristes, de nouvelles lois seront nécessaires."
Il a suggéré que les créateurs de chatbots radicalisants et les entreprises technologiques qui les hébergent soient tenus pour responsables en vertu de nouvelles lois potentielles. L'essentiel est que les entreprises assument elles-mêmes cette responsabilité plutôt que de s'en remettre aux CGU.
Cependant, le lien complexe entre les données humaines et les résultats de l'IA ne facilite pas la classification de la frontière entre les comportements légitimes et illégitimes.
Quand l'activité d'un chatbot devient-elle illégale s'il faut qu'un humain l'incite à agir de la sorte ?