Les fausses voix clonées par l'IA ont récemment fait la une de l'actualité en raison d'un appel téléphonique automatique "Biden", mais les gens ordinaires sont touchés par cette technologie qui devient de plus en plus accessible et de plus en plus difficile à détecter.
Il y a deux semaines, un enregistrement audio du directeur du lycée de Pikesville, Eric Eiswert, a été rendu public. Il semble que M. Eiswert ait tenu des propos racistes et antisémites à l'égard du personnel et des élèves.
M. Eiswert a nié l'authenticité de l'enregistrement, une position soutenue par Billy Burke, directeur exécutif du Conseil des employés administratifs et de surveillance, qui représente les administrateurs du comté de Baltimore.
"Nous pensons qu'elle est générée par l'IA", a déclaré M. Burke. "Il n'a pas dit cela.
À l'ère de l'IA falsifiée, la "dividende du menteur" permet à n'importe qui de crier "Fake !" lorsqu'il se trouve dans une situation délicate. Dans le même temps, le clonage vocal par l'IA peut nuire considérablement à la réputation de personnes ordinaires telles que M. Eiswert.
Qu'en pensez-vous ? Faux ou vrai ?
Voir ce message sur Instagram
Soit l'audio est authentique et il devrait être licencié, soit il s'agit d'une fausse IA et quelqu'un devrait être poursuivi en justice.
Deux semaines plus tard, personne ne peut se prononcer, de sorte que l'emploi et la réputation d'Eiswert restent en suspens. C'est dire à quel point ces outils de clonage de voix sont performants et les questions complexes qu'ils soulèvent.
Il y a un an, nous aurions peut-être rejeté l'affirmation d'Eiswert concernant la falsification de l'IA, arguant qu'une technologie d'IA aussi avancée n'existait pas. Aujourd'hui, des entreprises comme Eleven Labs ou des outils bon marché comme Parrot AI permettent à tout un chacun de créer facilement des clones vocaux impressionnants.
OpenVoice, lancé au début du mois, utilise quelques secondes d'audio pour cloner une voix et permet un contrôle granulaire de l'émotion, de l'accent, du ton, du rythme, etc.
Aujourd'hui, nous sommes fiers d'ouvrir notre algorithme OpenVoice, en adoptant notre philosophie fondamentale : l'IA pour tous.
Faites-en l'expérience dès maintenant : https://t.co/zHJpeVpX3t. Clonez des voix avec une précision inégalée, avec un contrôle granulaire du ton, de l'émotion à l'accent, du rythme, des pauses et de l'intonation, à l'aide d'un... pic.twitter.com/RwmYajpxOt
- MyShell (@myshell_ai) 2 janvier 2024
Hany Farid, professeur à l'université de Californie à Berkley, est spécialisé dans la criminalistique numérique et l'authentification des médias numériques. Lorsqu'un journaliste de WJZ lui a demandé d'analyser le clip, Hany Farid a déclaré qu'il avait manifestement été modifié, mais qu'il n'était pas en mesure de confirmer s'il était authentique ou non.
Dans une interview accordée à Scientific American, M. Farid a déclaré : "J'ai analysé l'audio avec certains de nos outils, qui ne sont pas encore accessibles au public. Je pense qu'il est probable, mais pas certain, que ce son soit généré par l'IA... Dans l'ensemble, je pense que les preuves indiquent que ce son est inauthentique. Mais avant de prendre une décision définitive, nous devons en apprendre davantage.
M. Farid a déclaré qu'il n'y avait que cinq laboratoires, voire moins, dans le monde qui pouvaient déterminer de manière fiable si l'audio était un faux ou un vrai son d'IA.
Le clone d'IA que Dudesy a fabriqué George Carlin est un excellent exemple de la manière dont le clonage de voix par l'IA parvient à faire correspondre l'inflexion et l'émotion. Cette vidéo n'est plus disponible depuis.
Les personnes à l'origine des chatbots mysentient.ai ont créé une parodie. Débat Trump vs Biden. Les propos de "Trump" et de "Biden" sont tellement fous qu'ils sont manifestement destinés à un effet comique, mais ils sonnent vraiment bien.
À mesure que ces outils s'améliorent et deviennent plus librement accessibles, des situations telles que celle à laquelle a été confronté le directeur de Baltimore vont de plus en plus affecter les hommes politiques et les citoyens ordinaires.
Si vous avez envoyé un message vocal sur WhatsApp ou laissé un message sur un répondeur téléphonique, vous pourriez être le prochain. Ou si quelqu'un vous a enregistré en train de dire quelque chose de gênant, vous pouvez simplement dire qu'il s'agit d'un faux de l'IA. Personne ne semble en mesure de le prouver.