YouTube ha presentato una serie di misure e linee guida per combattere l'uso improprio dell'IA, in particolare per la musica generata dall'IA e la deep fake music.
La decisione arriva in seguito alle crescenti pressioni per prendere provvedimenti in merito alla musica generata dall'intelligenza artificiale e ai contenuti falsificati, esemplificati da canzoni come "Heart on My Sleeve", con voci generate dall'intelligenza artificiale che assomigliano a Drake e Weeknd senza il loro permesso.
Universal Music Group ha criticato la canzone per "violazione dei contenuti creati con l'IA generativa".
Dopo un certo dibattito, i Grammy hanno recentemente dichiarato che tali composizioni non saranno presi in considerazione per i premi.
YouTube è aggiornare il processo di reclamo sulla privacy per consentire le denunce di falsi profondi, specificando che non tutti i contenuti di questo tipo saranno rimossi e che fattori come la parodia e la satira avranno un ruolo nel processo decisionale.
Inoltre, i creatori devono ora dichiarare quando utilizzano contenuti manipolati o sintetici, compreso il materiale generato dall'intelligenza artificiale.
Ciò è particolarmente accentuato per i contenuti che trattano argomenti sensibili come le elezioni e le crisi di salute pubblica. YouTube ha anche ricordato che il mancato rispetto di queste linee guida potrebbe portare alla rimozione dei contenuti o alla sospensione dei pagamenti pubblicitari.
Inoltre, alle descrizioni dei video verrà aggiunta un'etichetta che identifica i contenuti generati dall'intelligenza artificiale, con un'etichettatura più evidente per gli argomenti sensibili.
L'azienda ha dichiarato che verrà rimosso anche il materiale generato dall'intelligenza artificiale che viola le linee guida esistenti sui contenuti, come i video violenti creati sinteticamente.
Ecco un riepilogo dell'arsenale di strumenti di YouTube per combattere gli abusi dell'IA:
- Requisiti di divulgazione ed etichette di contenuto: I creatori devono dichiarare se i loro contenuti includono materiale alterato o sintetico che è realistico, in particolare quando utilizzano strumenti di intelligenza artificiale. Questo aspetto è fondamentale per i contenuti che trattano argomenti sensibili come elezioni e crisi sanitarie. La mancata conformità può comportare la rimozione dei contenuti o altre sanzioni.
- Informazioni sul visualizzatore: YouTube prevede di informare gli spettatori sui contenuti sintetici attraverso etichette nel pannello di descrizione e, per gli argomenti sensibili, in modo più evidente sul lettore video.
- Rimozione dei contenuti nei casi ad alto rischio: I media sintetici che presentano un rischio di danno, indipendentemente dall'etichettatura, saranno rimossi se violano le linee guida della comunità. Ciò include contenuti che raffigurano una violenza realistica volta a scioccare o disgustare gli spettatori.
- Procedura di richiesta della privacy: YouTube autorizzerà le richieste di rimozione di contenuti generati o alterati dall'intelligenza artificiale che simulano il volto o la voce di una persona identificabile. Le decisioni si baseranno su fattori quali la parodia o la satira, l'identificabilità della persona e il suo status pubblico.
- Disposizioni speciali per i contenuti musicali: I partner musicali possono richiedere la rimozione della musica generata dall'intelligenza artificiale che imita la voce unica di un artista. In questi casi, YouTube valuterà fattori come l'attualità o la rilevanza della critica.
- L'intelligenza artificiale nella moderazione dei contenuti: YouTube impiega una combinazione di tecnologia AI e revisione umana per applicare le linee guida della comunità. I classificatori dell'intelligenza artificiale aiutano a rilevare potenziali violazioni, mentre i revisori umani confermano le violazioni delle norme. L'intelligenza artificiale generativa è particolarmente utile per identificare e affrontare nuove forme di abuso.
- Costruire la responsabilità per gli strumenti di IA: YouTube si concentra sullo sviluppo di strumenti di intelligenza artificiale con salvaguardie integrate per impedire la generazione di contenuti inappropriati. Si sta inoltre preparando a potenziali aggiramenti da parte di malintenzionati attraverso un miglioramento continuo e team dedicati al rilevamento delle minacce.
Questo segue una tendenza più ampia del settore a smascherare i contenuti legati all'IA che non mirano a dare un contributo genuino e affidabile alle piattaforme.
Aziende come Meta che introducono anche requisiti per gli inserzionisti politici di divulgare l'uso dell'intelligenza artificiale negli annunci. Disinformazione
Ciò deriva da un misto di pressioni pubbliche e private, con le aziende di IA che cercano di dimostrare la volontà di rispettare le promesse fatte in vari quadri volontari.