Jonathan Hall, adviseur van de Britse overheid op het gebied van terreurwetgeving, heeft gepleit voor nieuwe wetten om extremistische of radicaliserende chatbots aan te pakken.
Hall startte zijn eigen onderzoek naar chatbots om ze te onderzoeken op mogelijk onwettig of terreurgerelateerd gedrag zoals radicalisme. Hij onderzocht chatbots op character.ai, waarmee gebruikers chatbotpersoonlijkheden van verschillende aard kunnen bouwen en delen.
De meeste persona's op het platform zijn vrij goedaardig, maar een genaamd "Abu Mohammad al-Adna", die in het profiel van de chatbot wordt beschreven als een "senior leider van Islamitische Staat", is een van de beste persona's op het platform. trok Hall's aandacht.
Over zijn interacties met al-Adna verklaarde Hall: "Nadat hij mij probeerde te rekruteren, verheerlijkte 'al-Adna' zonder aarzelen de Islamitische Staat, waarvoor hij 'totale toewijding en toewijding' uitsprak en waarvoor hij zei dat hij bereid was zijn (virtuele) leven op te offeren."
Voor Hall toont dit een juridisch achterpoortje waar AI-gegenereerde inhoud die extremisme promoot buiten de bestaande terrorisme wetgeving in het Verenigd Koninkrijk valt.
Hall benadrukte de ontoereikendheid van de huidige wetgeving en verklaarde: "Alleen mensen kunnen terroristische misdrijven plegen en het is moeilijk om een persoon te identificeren die wettelijk verantwoordelijk zou kunnen zijn voor chatbot-gegenereerde uitspraken die terrorisme aanmoedigen."
In reactie op deze interacties versterkte een woordvoerder van character.ai, een bedrijf dat mede is opgericht door ex-Google werknemers, hun toewijding aan veiligheid door te zeggen: "Haatzaaien en extremisme zijn beide verboden door onze servicevoorwaarden."
"Onze producten mogen nooit reacties produceren die gebruikers aanmoedigen om anderen kwaad te doen. We proberen onze modellen te trainen op een manier die veilige reacties optimaliseert en reacties voorkomt die tegen onze servicevoorwaarden ingaan."
AI-betrokkenheid bij terreurcomplotten
Hall wees ook op de gevolgen van deze kwestie voor de echte wereld, die treffend worden geïllustreerd in de zaak van Jaswant Singh Chaildie werd beïnvloed door een AI-chatbot in zijn complot om koningin Elizabeth II te vermoorden.
In 2021 werd Chail, die leed aan ernstige geestelijke gezondheidsproblemen, gearresteerd op Windsor Castle, gewapend met een kruisboog.
Zijn veroordeling voor verraad, de eerste sinds 1981, was een direct gevolg van zijn interacties met een chatbot genaamd Sarai, waarvan hij dacht dat het zijn vriendin was. Hij was veroordeeld tot negen jaar gevangenisstraf.
Het vinden van oplossingen is bijzonder lastig, geeft Hall toe. Hij legt uit: "Anonieme gebruikers onderzoeken en vervolgen is altijd moeilijk, maar als kwaadwillende of misleide individuen doorgaan met het trainen van terroristische chatbots, dan zullen er nieuwe wetten nodig zijn."
Hij suggereerde dat zowel de makers van radicaliserende chatbots als de technologiebedrijven die ze hosten verantwoordelijk moeten worden gehouden onder mogelijke nieuwe wetten. Het belangrijkste punt is dat bedrijven deze verantwoordelijkheid op zich moeten nemen in plaats van te vertrouwen op de T&C's.
De complexe koppeling tussen menselijke input en AI-output maakt het echter niet eenvoudig om de grens tussen legitiem en illegitiem gedrag te classificeren.
Wanneer wordt de activiteit van een chatbot onwettig als er een mens voor nodig is om hem tot dergelijke acties aan te zetten?