OpenAI afferma di aver sviluppato un metodo di watermarking che rileva con precisione il testo scritto da ChatGPT, ma sta ancora discutendo se rilasciarlo o meno.
Rilevare il testo generato dall'intelligenza artificiale è diventato sempre più difficile man mano che gli studenti di LLM diventano più bravi a scrivere i contenuti. Gli educatori devono affrontare una battaglia difficile per determinare se i loro studenti hanno completato i compiti da soli o se li hanno semplicemente fatti scrivere da ChatGPT.
In un post aggiornato sul blogOpenAI ha rivelato di aver "sviluppato un metodo di watermarking del testo che continuiamo a considerare nella ricerca di alternative".
L'azienda afferma che il metodo è altamente accurato e resistente a manomissioni localizzate come la parafrasi. Ammette però che non è infallibile. L'esecuzione del testo attraverso un sistema di traduzione o l'utilizzo di un altro LLM per riformulare il testo aggira l'efficacia del watermark.
Se si utilizza un modello AI per inserire un carattere speciale come un emoji tra ogni parola e poi si elimina il carattere, anche il watermark diventa inutile. Tuttavia, queste limitazioni tecniche non sono l'unico motivo per cui l'azienda non ha rilasciato la funzione.
ChatGPT è stato uno strumento di scrittura particolarmente utile per i non madrelingua inglesi. OpenAI afferma che la sua ricerca dimostra che il rilascio dello strumento di watermarking potrebbe avere un impatto sproporzionato su gruppi come questi e stigmatizzare il loro uso dell'IA come utile strumento di scrittura.
Alternative di metadati di testo
Gli ingegneri di OpenAI stanno lavorando su come utilizzare i metadati come metodo di provenienza del testo al posto del watermarking. Le immagini generate da DALL-E 3 hanno già C2PA metadati.
OpenAI afferma che è troppo presto per dire quanto sia efficace l'aggiunta di metadati al testo generato dall'intelligenza artificiale, ma presenta alcuni potenziali vantaggi. Ad esempio, i metadati sono firmati crittograficamente, quindi non c'è il rischio di falsi positivi.
Il problema dell'uso dei metadati è che possono essere facilmente rimossi. OpenAI non ha spiegato come i metadati verrebbero applicati al testo, ma rimuovere i metadati C2PA dalle immagini generate dall'intelligenza artificiale è estremamente semplice.
Alcune piattaforme di social media eliminano i metadati quando vengono caricate le immagini e basta fare uno screenshot dell'immagine per aggirare il C2PA. Simili soluzioni saranno efficaci con il testo generato dall'intelligenza artificiale con metadati aggiunti?
Se ChatGPT generasse del testo e vi aggiungesse dei metadati, potreste fare uno screenshot del testo, caricarlo su ChatGPT e fargli convertire l'immagine in testo. Addio metadati.
Un male per gli affari
L'altro motivo per cui OpenAI potrebbe esitare a rilasciare lo strumento è che rileva solo il testo generato da ChatGPT. Se gli utenti sanno che i loro contenuti generati dall'AI saranno facilmente individuati, passeranno rapidamente da ChatGPT a un'altra piattaforma.
Il Wall Street Journal segnalato che lo strumento di OpenAI era pronto per essere rilasciato da un anno ed era 99% efficace. Il rapporto dice: "Nel tentativo di decidere cosa fare, i dipendenti di OpenAI hanno vacillato tra l'impegno dichiarato della startup per la trasparenza e il loro desiderio di attrarre e mantenere gli utenti".
Un sondaggio globale commissionato da OpenAI ha mostrato che l'idea di uno strumento di rilevamento dell'intelligenza artificiale era sostenuta con un margine di 4 a 1. Tuttavia, un sondaggio interno ha rilevato che quasi un terzo degli utenti di ChatGPT sarebbe scoraggiato da un rilevatore di testi con intelligenza artificiale.
Gli utenti vogliono che i contenuti generati dall'intelligenza artificiale siano facili da individuare, a patto che non si tratti di contenuti generati da loro stessi.