Forscher der Universität Würzburg und des Max-Planck-Instituts für Bildungsforschung haben ein KI-Modell darauf trainiert, Lügen zu erkennen, und es könnte die Art und Weise, wie wir miteinander umgehen, durcheinanderbringen.
Menschen sind nicht besonders gut darin, zu erkennen, ob eine Person lügt oder die Wahrheit sagt. Experimente zeigen, dass unsere Trefferquote bestenfalls bei 50% liegt, und diese schlechte Leistung bestimmt, wie wir miteinander umgehen.
Die truth-default theory (TDT) besagt, dass Menschen in der Regel davon ausgehen, dass das, was eine Person ihnen erzählt, wahr ist. Die sozialen Kosten, die Person als Lügner zu bezeichnen, sind ein zu großes Risiko, da unsere Fähigkeit, Lügen zu erkennen, bei 50/50 liegt, und eine Überprüfung der Fakten ist im Moment nicht immer sinnvoll.
Polygraphen und andere lügendetektierende Technologien können Daten wie Stressindikatoren und Augenbewegungen aufspüren, aber wahrscheinlich werden Sie so etwas bei Ihrem nächsten Gespräch nicht einsetzen. Könnte KI helfen?
Das Papier erklärt, wie das Forschungsteam den BERT LLM von Google darauf trainiert hat, zu erkennen, wenn Menschen lügen.
Die Forscher rekrutierten 986 Teilnehmer und baten sie, ihre Wochenendpläne zu beschreiben, mit einer anschließenden Erklärung, die den Wahrheitsgehalt ihrer Aussage belegt.
Dann wurden ihnen die Wochenendpläne eines anderen Teilnehmers vorgelegt, und sie wurden gebeten, eine falsche Erklärung zu schreiben, in der sie behaupteten, dass dies tatsächlich ihre Pläne für das Wochenende seien.
BERT wurde auf 80% der 1.536 Aussagen trainiert und hatte dann die Aufgabe, den Wahrheitsgehalt der restlichen Aussagen zu bewerten.
Das Modell war in der Lage, eine Aussage mit einer Genauigkeit von 66,86% als wahr oder falsch zu bezeichnen, deutlich besser als die menschlichen Richter, die in weiteren Experimenten eine Genauigkeitsrate von 46,47% erreichten.
Würden Sie einen KI-Lügendetektor benutzen?
Die Forscher fanden heraus, dass sich nur ein Drittel der Teilnehmer für die Nutzung des KI-Lügenerkennungsmodells entschied, als ihnen die Möglichkeit dazu geboten wurde.
Diejenigen, die sich für die Verwendung des Algorithmus entschieden, folgten fast immer der Vorhersage des Algorithmus, indem sie die Aussage als wahr akzeptierten oder sie der Lüge bezichtigten.
Teilnehmer, die algorithmische Vorhersagen einholten, wiesen Anschuldigungsraten von fast 85% auf, wenn die Aussage falsch war. Der Ausgangswert derjenigen, die keine maschinellen Vorhersagen verlangten, lag bei 19,71%.
Menschen, die der Idee eines KI-Lügendetektors aufgeschlossen gegenüberstehen, sind eher geneigt, ihn als Schwindel zu bezeichnen, wenn sie das rote Licht blinken sehen.
Eine plausible Erklärung ist, dass ein verfügbarer Algorithmus zur Erkennung von Lügen die Möglichkeit bietet, die Verantwortung für Anschuldigungen von sich selbst auf das maschinelle Lernsystem zu übertragen", so die Forscher.
Nicht ich nenne Sie einen Lügner, sondern die Maschine.
Das ändert alles
Was würde in unserer Gesellschaft passieren, wenn die Wahrscheinlichkeit, dass sich Menschen gegenseitig als Lügner bezeichnen, um das Vierfache steigen würde?
Die Forscher kamen zu dem Schluss, dass KI, wenn sich die Menschen auf sie als Schiedsrichter der Wahrheit verlassen, ein starkes Störungspotenzial haben könnte.
In dem Papier heißt es, dass "hohe Beschuldigungsraten unser soziales Gefüge belasten können, indem sie allgemeines Misstrauen fördern und die Polarisierung zwischen Gruppen, die sich ohnehin schon schwer tun, einander zu vertrauen, weiter verstärken".
Ein präziser KI-Lügendetektor würde auch positive Auswirkungen haben. Er könnte KI-generierte Desinformationen und Fake News erkennen, bei Geschäftsverhandlungen helfen oder Versicherungsbetrug bekämpfen.
Wie sieht es mit der Ethik des Einsatzes eines solchen Instruments aus? Könnten Grenzbeamte damit feststellen, ob der Asylantrag eines Migranten der Wahrheit entspricht oder eine opportunistische Erfindung ist?
Fortschrittlichere Modelle als BERT werden die Genauigkeit der KI bei der Erkennung von Lügen wahrscheinlich so weit steigern, dass menschliche Täuschungsversuche nur noch allzu leicht zu erkennen sind.
Die Forscher kamen zu dem Schluss, dass ihre "Forschung die dringende Notwendigkeit eines umfassenden politischen Rahmens unterstreicht, um die Auswirkungen von KI-gestützten Lügenerkennungsalgorithmen anzugehen."