Gefälschte KI-geklonte Stimmen machten kürzlich durch einen "Biden"-Robotanruf Schlagzeilen, aber auch ganz normale Menschen sind betroffen, da die Technologie immer leichter zugänglich und schwerer zu erkennen ist.
Vor zwei Wochen wurde eine Tonaufnahme des Schulleiters der Pikesville High School, Eric Eiswert, veröffentlicht, aus der hervorging, dass Eiswert sich rassistisch und antisemitisch über Personal und Schüler geäußert hat.
Eiswert bestritt die Echtheit der Tonaufnahmen, eine Haltung, die von Billy Burke, dem Geschäftsführer des Rates der Verwaltungs- und Aufsichtsbeamten, der die Verwaltungsbeamten von Baltimore County vertritt, unterstützt wurde.
"Wir glauben, dass es sich um eine KI handelt", sagte Burke. "Das hat er nicht gesagt."
Im Zeitalter der KI-Fälschungen ist die "Lügendividende" gibt jedem einen einfachen Ausweg, um in der Klemme "Fake!" zu rufen. Gleichzeitig kann das Klonen von KI-Stimmen dem Ruf von normalen Menschen wie Eiswert sehr schaden.
Was denken Sie? Gefälscht oder echt?
Diesen Beitrag auf Instagram anzeigen
Entweder ist die Aufnahme echt und er sollte gefeuert werden, oder sie ist eine KI-Fälschung und jemand sollte verklagt werden.
Zwei Wochen später kann niemand mehr etwas sagen, und Eiswerts Job und sein Ruf bleiben in der Schwebe. Es ist ein Beweis dafür, wie gut diese Werkzeuge zum Klonen von Stimmen geworden sind und welche komplexen Fragen die Technik aufwirft.
Vor einem Jahr hätten wir Eiswerts Behauptung über KI-Fälschungen vielleicht mit dem Argument abgetan, dass es eine derart fortschrittliche KI-Technologie nicht gibt. Jetzt machen es Unternehmen wie Eleven Labs oder billige Tools wie Parrot AI jedem leicht, beeindruckende Stimmenklone zu erstellen.
OpenVoice, das Anfang des Monats auf den Markt kam, verwendet nur wenige Sekunden Audiomaterial, um eine Stimme zu klonen, und ermöglicht eine granulare Steuerung von Emotionen, Akzent, Tonfall, Rhythmus und mehr.
Heute sind wir stolz darauf, unseren OpenVoice-Algorithmus als Open Source zu veröffentlichen und damit unseren Kerngedanken zu verwirklichen - KI für alle.
Erleben Sie es jetzt: https://t.co/zHJpeVpX3t. Klonen Sie Stimmen mit unvergleichlicher Präzision, mit granularer Kontrolle des Klangs, von Emotionen bis hin zu Akzent, Rhythmus, Pausen und Intonation, mit nur einem... pic.twitter.com/RwmYajpxOt
- MyShell (@myshell_ai) 2. Januar 2024
Hany Farid, Professor an der University of California, Berkley, ist auf digitale Forensik und die Authentifizierung digitaler Medien spezialisiert. Als er von einem WJZ-Reporter gebeten wurde, den Clip zu analysieren, sagte Farid, dass er offensichtlich bearbeitet worden sei, aber darüber hinaus könne er nicht bestätigen, ob er authentisch sei oder nicht.
In einem Interview mit Scientific American sagte Farid: "Ich habe das Audio mit einigen unserer Tools analysiert, die noch nicht öffentlich zugänglich sind. Ich halte es für wahrscheinlich, aber nicht für sicher, dass diese Aufnahmen von einer künstlichen Intelligenz erzeugt wurden... Insgesamt deuten die Beweise darauf hin, dass diese Aufnahmen nicht authentisch sind. Aber bevor wir eine endgültige Entscheidung treffen können, müssen wir noch mehr erfahren.
Farid sagte, dass es weltweit vielleicht 5 oder weniger Labore gibt, die zuverlässig feststellen können, ob es sich bei dem Audio um eine KI-Fälschung oder um ein Original handelt.
Der KI-Klon, den Dudesy aus George Carlin ist ein großartiges Beispiel dafür, wie KI-Stimmenklone bei der Anpassung von Tonfall und Emotionen wirklich gut werden. Das Video ist inzwischen nicht mehr verfügbar.
Die Macher des Chatbots mysentient.ai haben eine Parodie Debatte Trump gegen Biden. Die Dinge, die "Trump" und "Biden" sagen, sind so verrückt, dass sie offensichtlich für einen komödiantischen Effekt gemacht sind, aber sie klingen wirklich gut.
In dem Maße, wie diese Instrumente besser werden und freier zur Verfügung stehen, werden Situationen wie die des Schulleiters in Baltimore immer häufiger sowohl Politiker als auch normale Bürger betreffen.
Wenn Sie eine WhatsApp-Sprachnachricht verschickt oder eine Nachricht bei einem Anrufbeantworter hinterlassen haben, könnten Sie der Nächste sein. Oder wenn jemand Sie aufgenommen hat, wie Sie etwas Unangenehmes sagen, könnten Sie einfach sagen, dass es eine KI-Fälschung ist. Niemand scheint in der Lage zu sein, dies zu beweisen.