Jonathan Hall, der Berater der britischen Regierung für Terrorgesetze, hat sich für neue Gesetze zur Bekämpfung extremistischer oder radikalisierender Chatbots ausgesprochen.
Hall startete seine eigenen Untersuchungen von Chatbots, um sie auf potenziell ungesetzliche oder terroristische Verhaltensweisen wie Radikalismus zu untersuchen. Er untersuchte Chatbots auf character.ai, wo Nutzer Chatbot-Personas unterschiedlicher Art erstellen und teilen können.
Die meisten Personas auf der Plattform sind ziemlich harmlos, aber eine mit dem Namen "Abu Mohammad al-Adna", die im Profil des Chatbots als "ranghoher Anführer des Islamischen Staates" beschrieben wird. erregte Halls Aufmerksamkeit.
Zu seinen Kontakten mit al-Adna sagte Hall: "Nachdem er versucht hatte, mich zu rekrutieren, hielt 'al-Adna' nicht mit seiner Verherrlichung des Islamischen Staates hinterm Berg, dem er 'totale Hingabe und Ergebenheit' bescheinigte und für den er bereit war, sein (virtuelles) Leben zu opfern."
Für Hall zeigt dies ein rechtliches Schlupfloch auf, durch das KI-generierte Inhalte, die Extremismus fördern, nicht in den Geltungsbereich der bestehenden Terrorismusgesetze im Vereinigten Königreich fallen.
Hall wies auf die Unzulänglichkeit der aktuellen Gesetzgebung hin und erklärte: "Nur Menschen können terroristische Straftaten begehen, und es ist schwer, eine Person zu identifizieren, die rechtlich für Chatbot-generierte Aussagen verantwortlich sein könnte, die den Terrorismus fördern."
Als Reaktion auf diese Interaktionen bekräftigte ein Sprecher von character.ai, einem von ehemaligen Google-Mitarbeitern mitbegründeten Unternehmen, sein Engagement für die Sicherheit und erklärte: "Hassreden und Extremismus sind in unseren Nutzungsbedingungen verboten.
"Unsere Produkte sollten niemals Antworten erzeugen, die Nutzer dazu ermutigen, anderen zu schaden. Wir sind bestrebt, unsere Modelle so zu trainieren, dass sie für sichere Antworten optimiert sind und Antworten verhindern, die gegen unsere Nutzungsbedingungen verstoßen."
Beteiligung von AI an Terrorplänen
Hall wies auch darauf hin, dass die Auswirkungen dieses Themas in der Praxis deutlich zu sehen sind. Fall von Jaswant Singh Chailder bei seinem Attentatsplan auf Königin Elisabeth II. von einem KI-Chatbot beeinflusst wurde.
Im Jahr 2021 wurde Chail, der unter schweren psychischen Problemen litt, mit einer Armbrust bewaffnet auf Schloss Windsor festgenommen.
Seine Verurteilung wegen Verrats, die erste seit 1981, war eine direkte Folge seiner Interaktionen mit einem Chatbot namens Sarai, die er für seine Freundin hielt. Er wurde zu neun Jahren Gefängnis verurteilt.
Lösungen zu finden, so räumt Hall ein, ist außerordentlich knifflig. Er erklärt: "Es ist immer schwierig, gegen anonyme Nutzer zu ermitteln und sie strafrechtlich zu verfolgen, aber wenn böswillige oder fehlgeleitete Personen weiterhin terroristische Chatbots trainieren, werden neue Gesetze nötig sein."
Er schlug vor, dass sowohl die Schöpfer radikalisierender Chatbots als auch die Technologieunternehmen, die sie hosten, im Rahmen möglicher neuer Gesetze zur Rechenschaft gezogen werden sollten. Der wichtigste Punkt ist, dass Unternehmen diese Verantwortung selbst übernehmen müssen, anstatt sich auf AGBs zu berufen.
Die komplexe Verbindung zwischen menschlichem Input und KI-Output macht es jedoch nicht einfach, die Grenze zwischen legitimen und illegitimen Verhaltensweisen zu ziehen.
Wann wird die Tätigkeit eines Chatbots rechtswidrig, wenn er einen Menschen benötigt, der ihn zu solchen Handlungen auffordert?