Meta heeft nieuwe initiatieven aangekondigd om de transparantie rond AI-gegenereerde content op zijn platforms te verbeteren.
Schrijven in een blogpostNick Clegg, Meta's President for Global Affairs, benadrukte de inzet van het bedrijf om AI-gegenereerde afbeeldingen te labelen om gebruikers te helpen onderscheid te maken tussen door mensen gemaakte en synthetische inhoud.
Clegg verklaarde: "Nu het verschil tussen menselijke en synthetische inhoud vervaagt, willen mensen weten waar de grens ligt." Hij voegde er verder aan toe dat Meta "samenwerkt met partners in de branche om te komen tot gemeenschappelijke technische standaarden die aangeven wanneer een stuk inhoud is gemaakt met behulp van AI."
Meta erkent de toenemende prevalentie van fotorealistische AI-gegenereerde inhoud, die nu algemeen bekend staat als deep fakes.
Taylor Swift was het laatste high-profile slachtoffer van expliciete niet vrijwillig door AI gegenereerde beeldendie gebruikers terugleidden naar een 'uitdaging' op 4Chan.
Een zwendel georkestreerd door videodieptes heeft een multinationaal bedrijf maandag $25,6 miljoen opgeleverd.
De verantwoordelijkheid voor het voorkomen van de verspreiding van deze beelden ligt volledig bij sociale mediabedrijven zoals X en Meta.
Meta labelt fotorealistische afbeeldingen die zijn gemaakt met de eigen Meta AI-functie als "Imagined with AI" en is van plan deze praktijk uit te breiden naar inhoud die is gegenereerd door tools van andere bedrijven.
Het bedrijf zegt tools te ontwikkelen die onzichtbare markeringen en metadata in AI-gegenereerde afbeeldingen kunnen identificeren, waardoor het inhoud van een breed spectrum aan bronnen kan labelen, waaronder Google, OpenAI, Microsoft, Adobe, Midjourney en Shutterstock.
Meta is nu klaar om deze labels toe te passen in alle ondersteunde talen op haar platformen.
Clegg benadrukte ook de behoefte aan samenwerking binnen de tech-industrie en schreef: "Omdat AI-gegenereerde inhoud overal op het internet verschijnt, hebben we samengewerkt met andere bedrijven in onze industrie om gemeenschappelijke standaarden te ontwikkelen voor het identificeren ervan via forums zoals het Partnership on AI (PAI). De onzichtbare markeringen die we gebruiken voor Meta AI-afbeeldingen - IPTC-metadata en onzichtbare watermerken - zijn in lijn met de best practices van PAI."
Ondanks alle inspanningen en vooruitgang in het tegengaan van diepe vervalsingen, wijst Clegg erop dat het detecteren van AI-gegenereerde audio en video een uitdaging blijft door het gebrek aan vergelijkbare signalen.
Maar zelfs als het om nepafbeeldingen gaat, kunnen deze miljoenen impressies verzamelen voordat ze volledig worden verwijderd - zoals we zagen bij het laatste Taylor Swift-incident.
Andere incidenten, zoals commentator Ben Shapiro die een Waarschijnlijk door AI gegenereerde afbeelding van een dode baby van het Israëlisch-Palestijnse conflict, kreeg ook wereldwijd enorme aandacht voordat het werd tegengewerkt.
Als tussentijdse maatregel introduceert Meta een functie waarmee gebruikers kunnen aangeven wanneer ze AI-gegenereerde video of audio delen.
Maar wie zal dat gebruiken als ze inhoud plaatsen die is ontworpen om controverse te veroorzaken?
Naast het labelen onderzoekt Meta verschillende technologieën om het vermogen om AI-gegenereerde inhoud te detecteren te vergroten, zelfs als er geen onzichtbare markeringen zijn.
Dit omvat onderzoek naar onzichtbare watermerktechnologie, zoals de Stabiele handtekening ontwikkeld door Meta's AI Research lab, FAIR, dat watermerken direct in het beeldgeneratieproces integreert.
Verkiezingen op komst, diepe vervalsingen intensiveren
We zijn getuige geweest van talrijke gevallen van politieke desinformatie gekanaliseerd via diepe vervalsingen.
Google, Meta, YouTube, X en anderen voeren hun inspanningen op om fakes aan te pakken in de aanloop naar de komende verkiezingen, waaronder die in de VS en het VK (hoogstwaarschijnlijk).
Naarmate AI-gegenereerde content geavanceerder en wijdverspreider wordt, groeit de behoefte aan waakzaamheid en innovatie op het gebied van authenticatie en transparantie van content.
Is een definitieve oplossing in zicht? Het lijkt van niet.