Midjourney, en pionjär inom AI-bildgenerering, överväger ett totalförbud mot AI-genererade bilder av Joe Biden och Donald Trump inför valet i USA 2024.
Syftet är att skydda plattformen från att bli ett redskap för felaktig information inför valet i år.
Midjourneys VD, David Holz, uttryckte uppriktigt sin inställning till politiskt innehåll på deras plattform och sa: "Jag vet inte hur mycket jag bryr mig om politiskt tal under nästa år för vår plattform."
Holz delade också på ett humoristiskt sätt med sig av sina blandade känslor inför att producera bilder på Donald Trump: "Jag vet att det är kul att göra Trump-bilder - jag gör Trump-bilder. Trump är estetiskt riktigt intressant. Men det är nog bättre att inte göra det, bättre att dra sig tillbaka lite under det här valet. Vi får se."
Diskussionen om AI-genererade bilder, särskilt i politiska sammanhang, har intensifierats, särskilt på grund av en nyligen inträffad kontrovers kring explicita AI-genererade bilder av Taylor Swift.
Taylor Swift utsattes för en serie falska bilder som spreds på sociala medier och fick miljontals visningar.
AI fortsätter att påverka det politiska samtalet och oron växer för dess potential att på ett påtagligt sätt störa demokratiska processer.
Vi har sett många exempel på djupa förfalskningar med politiska temananvänds ofta för att skapa kontroverser eller sprida felaktig information. En nyligen inträffad incident var en AI-avatar av Pakistans före detta premiärminister utropa en valseger före den slutliga räkningen.
Sam Altman, VD för OpenAI, diskuterade sitt företags inställning till djupa förfalskningar tidigare i år och sa: "Det som jag är mest bekymrad över är att med nya möjligheter med AI ... kommer det att finnas bättre djupa förfalskningar än 2020."
OpenAI har startat lägga till särskilda metadata till bilder skapad med DALL-E 3 för att hjälpa plattformar och användare att identifiera AI-innehåll.
Meta höjde också sitt spel i Identifiera AI-genererat innehåll över sina plattformar.
Än så länge finns det ingen metod som är idiotsäker.