KI-generierte tiefe falsche Stimmen täuschen mehr als 1/4 der Teilnehmer in einer neuen Studie

3. August 2023

AI tief gefälschte Sprache

Eine neue Studie hat ergeben, dass Menschen selbst dann, wenn sie sich bewusst sind, dass sie eine tiefe, gefälschte Sprache hören könnten, Schwierigkeiten haben, gefälschte Stimmen zuverlässig zu erkennen.

Dies gilt sowohl für Englisch- als auch für Mandarin-Sprecher, was unterstreicht, dass tiefe falsche Stimmen wahrscheinlich in vielen Sprachen wirksam sind. 

Forscher des University College London baten 500 Personen, in mehreren Audioclips gefälschte Sprache zu erkennen. Einige Clips enthielten eine authentische weibliche Stimme, die generische Sätze in Englisch oder Mandarin vorlas, während andere von generativen KIs, die auf weibliche Stimmen trainiert wurden, erzeugt wurden.

Die Studie Die Teilnehmer wurden in zwei Gruppen aufgeteilt, die jeweils eine andere Form des Experiments durchliefen. 

Einer Gruppe wurden 20 Stimmproben in ihrer Muttersprache vorgelegt und sie musste erkennen, ob die Clips echt oder gefälscht waren. Die Teilnehmer erkannten in etwa 73% der Fälle sowohl bei den englischen als auch bei den mandarinfarbenen Stimmproben richtig, ob es sich um eine tiefe Fälschung oder um eine echte Stimme handelte. 

Einer anderen Gruppe wurden 20 zufällig ausgewählte Paare von Audioclips vorgelegt. Jedes Paar enthielt den gleichen Satz, der von einem Menschen und der tiefen Fälschung vorgetragen wurde, und die Teilnehmer sollten die Fälschung identifizieren. Dies erhöhte die Erkennungsgenauigkeit auf 85,59%.

Im ersten Experiment wird die menschliche Erkennung tiefer Fälschungen wahrscheinlich schlechter ausfallen, als die Ergebnisse vermuten lassen, da die Menschen nicht gewarnt werden, dass sie KI-generierte Sprache hören könnten. 

Umgekehrt haben die Hörer im zweiten Experiment eine binäre Wahlmöglichkeit, was ihnen einen Vorteil verschafft.

Interessanterweise gab es relativ geringe Unterschiede zwischen den Ergebnissen für Englisch und Mandarin. 

Betrügereien mit gefälschter Sprache nehmen im echten Leben zu

"Dieser Aufbau ist nicht vollständig repräsentativ für reale Szenarien", sagt Mai. "Die Zuhörer würden im Voraus nicht wissen, ob das, was sie hören, echt ist, und Faktoren wie das Geschlecht und das Alter des Sprechers könnten die Erkennungsleistung beeinflussen."

Es gibt jedoch noch weitere Einschränkungen, denn in der Studie wurden die Zuhörer nicht aufgefordert, tiefe Fälschungen zu erkennen, die wie eine ihnen bekannte Person klingen sollten, wie z. B. ein Sohn, eine Mutter usw. Wenn Betrüger es auf jemanden mit einer tiefen Fälschung abgesehen hätten, würden sie mit ziemlicher Sicherheit die Stimme der Person klonen. Dies ist relativ einfach, wenn jemand Audio- oder Videoaufnahmen von sich selbst online hochgeladen hat, z. B. für ein Video in sozialen Medien, einen Podcast, eine Radio- oder Fernsehsendung. 

Dies ist bereits der Fall, wobei ein McAfee-Umfrage die zeigt, dass etwa 1 von 4 Erwachsenen weiß, dass es Betrug mit gefälschten Stimmen gibt.

Betrug im Zusammenhang mit KI ist ebenfalls auf dem Vormarsch Anstieg in Chinaund ein Analyst vorausgesagt, dass KI-gestützter Betrug könnte Menschen und Volkswirtschaften teuer zu stehen kommen. Es gibt zahlreiche beängstigende Anekdoten von Menschen, die bereits Zielscheibe von gefälschten Anrufen waren, oft in Form eines panischen Familienmitglieds, das um Geld bittet, um sie aus einer schwierigen Situation zu befreien. 

In dieser Studie wurde festgestellt, dass künstliche Stimmen das "unheimliche Tal" durchschreiten, d. h. sie imitieren den natürlichen Klang menschlicher Stimmen, lassen aber die feinen Nuancen vermissen, die bei manchen Zuhörern Misstrauen hervorrufen. Natürlich werden die künstlichen Stimmen der KI immer besser. 

Insgesamt beweist die Studie, dass die derzeitige Technologie bereits sehr kompetent ist und dass Versuche, die Fähigkeiten der Menschen zur Erkennung falscher Stimmen in der Studie zu verbessern, weitgehend erfolglos waren. 

Die Autoren betonen die Notwendigkeit, kompetente KI-Stimmdetektoren zu entwickeln und die Bevölkerung darüber aufzuklären, wie ausgeklügelt die gefälschten Stimmen bereits sind.

Künftige Forschungen zu Deep Fakes, bei denen die Stimmen von Personen, die die Studienteilnehmer kennen, nachgebildet werden, wären aufschlussreich.

Es gibt praktische Methoden, um Betrügereien mit gefälschter Sprache zu erkennen, z. B. die Verwendung von Codewörtern zwischen Familienmitgliedern oder die Aufforderung an den Anrufer, eine gegenseitig bekannte persönliche Information zu beschreiben.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen