Meta passe à la vitesse supérieure dans sa lutte contre les contenus falsifiés par l'IA

6 février 2024

Meta ai

Meta a annoncé de nouvelles initiatives visant à améliorer la transparence des contenus générés par l'IA sur ses plateformes.

Écrire dans un article de blogÀ l'occasion de cette conférence, Nick Clegg, président de Meta pour les affaires mondiales, a souligné l'engagement de l'entreprise à étiqueter les images générées par l'IA afin d'aider les utilisateurs à distinguer les contenus créés par l'homme des contenus synthétiques. 

M. Clegg a déclaré : "La différence entre le contenu humain et le contenu synthétique étant de plus en plus floue, les gens veulent savoir où se situe la limite." Il a ajouté que Meta "travaille avec des partenaires de l'industrie pour s'aligner sur des normes techniques communes qui signalent qu'un contenu a été créé à l'aide de l'IA".

Meta reconnaît la prévalence croissante des contenus photoréalistes générés par l'IA, aujourd'hui largement connus sous le nom de "deep fakes".

Taylor Swift a été la dernière victime très médiatisée de la violence explicite à l'égard des femmes. images non consensuelles générées par l'IAque les utilisateurs ont fait remonter à un "défi" sur 4Chan.

Une escroquerie orchestrée par des vidéo deep fakes a permis à une multinationale de soutirer $25,6 millions d'euros lundi.

La responsabilité d'empêcher la diffusion de ces images incombe directement aux entreprises de médias sociaux telles que X et Meta. 

Meta qualifie les images photoréalistes créées à l'aide de sa propre fonction Meta AI d'"imaginées avec l'IA" et prévoit d'étendre cette pratique au contenu généré par les outils d'autres entreprises.

L'entreprise affirme qu'elle développe des outils capables d'identifier les marqueurs invisibles et les métadonnées intégrés dans les images générées par l'IA, ce qui lui permet d'étiqueter le contenu d'un large éventail de sources, dont Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock. 

Meta s'apprête maintenant à appliquer ces labels à toutes les langues prises en charge sur ses plates-formes. 

M. Clegg a également souligné la nécessité d'une collaboration au sein de l'industrie technologique : "Étant donné que le contenu généré par l'IA apparaît partout sur l'internet, nous avons travaillé avec d'autres entreprises de notre secteur à l'élaboration de normes communes pour l'identifier dans le cadre de forums tels que le Partenariat sur l'IA (PAI). Les marqueurs invisibles que nous utilisons pour les images Meta AI - métadonnées IPTC et filigranes invisibles - sont conformes aux meilleures pratiques du PAI".

Malgré les efforts et les progrès réalisés dans la lutte contre les "deep fakes", M. Clegg a souligné que la détection des signaux audio et vidéo générés par l'IA reste difficile en raison de l'absence de signaux comparables. 

Mais même lorsqu'il s'agit de fausses images, celles-ci peuvent accumuler des millions d'impressions avant d'être complètement supprimées, comme nous l'avons vu dans le dernier incident concernant Taylor Swift.

D'autres incidents, comme le commentateur Ben Shapiro partageant une Image probable d'un bébé mort générée par l'IA du conflit israélo-palestinien, a également suscité une attention considérable dans le monde entier avant d'être contrée. 

À titre de mesure provisoire, Meta introduira une fonction permettant aux utilisateurs de divulguer lorsqu'ils partagent des vidéos ou des fichiers audio générés par l'IA.

Mais qui l'utilisera s'il s'agit d'un contenu destiné à susciter la controverse ?

Outre l'étiquetage, Meta explore diverses technologies pour améliorer sa capacité à détecter les contenus générés par l'IA, même en l'absence de marqueurs invisibles. 

Il s'agit notamment de la recherche sur les technologies de filigrane invisible, telles que le Signature stable développé par le laboratoire de recherche en IA de Meta, FAIR, qui intègre le filigrane directement dans le processus de génération d'images.

À l'approche des élections, les "deep fakes" s'intensifient

Nous avons été témoins de nombreux cas de désinformation politique canalisés par des faux profonds.

Google, Meta, YouTube, X et d'autres sociétés redoublent d'efforts pour lutter contre les "deep fakes" à l'approche des prochaines élections, notamment aux États-Unis et au Royaume-Uni (selon toute vraisemblance).

À mesure que les contenus générés par l'IA deviennent plus sophistiqués et plus répandus, le besoin de vigilance et d'innovation en matière d'authentification et de transparence des contenus se fait de plus en plus sentir.

Une solution définitive est-elle en vue ? Il semble que non. 

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation