Il generatore di immagini di Grok ha conquistato le prime pagine dei giornali, suscitando immense critiche per aver consentito forme inappropriate, esplicite e manipolative di utilizzo dell'IA.
Quando Musk ha fondato la sua startup di intelligenza artificiale xAI nel 2023, ha detto che l'obiettivo era quello di "capire l'universo".
Oggi, quell'ambizione cosmica è in qualche modo atterrata sulla Terra.
Eppure Grok, il primo e unico prodotto di xAI, è ancora in grado di mandare onde d'urto nella comunità dell'IA e nella società in generale. - ma forse non nel modo in cui il team xAI avrebbe potuto immaginare.
Rilasciato per la prima volta nel 2023, Grok si differenzia da concorrenti come ChatGPT di OpenAI o Bard di Google per un aspetto fondamentale: la mancanza di filtri tradizionali per i contenuti.
Ora, grazie alle sue nuove capacità di generazione di immagini come DALL-E di ChatGPT, Grok può applicare la sua natura non filtrata al mondo delle immagini visive.
Dalle surreali rappresentazioni di Donald Trump che culla una Kamala Harris incinta ai bizzarri mashup di Darth Vader che bacia la Principessa Peach, Grok ha scatenato un fiume di immagini strane e provocatorie che mettono a nudo sia la natura non filtrata del suo funzionamento interno sia l'immaginazione degli utenti.
Ty grok pic.twitter.com/9JgjFBCYRI
- shako (@shakoistsLog) 14 agosto 2024
I problemi di copyright con grok sono semplicemente assurdi pic.twitter.com/eggEV5crg6
- Alex Masmej (@AlexMasmej) 15 agosto 2024
Musk ne fa un punto di forza, definendo Grok "l'IA più divertente del mondo!".
Per Musk, limitare le restrizioni all'intelligenza artificiale non è solo un gioco, ma un imperativo morale. Ha ripetutamente criticato le aziende di IA come OpenAI che addestrano i loro modelli a essere "svegli", sostenendo che ciò rende l'IA meno sincera e potenzialmente pericolosa.
"Il pericolo di addestrare l'intelligenza artificiale a essere sveglia - in altre parole, a mentire - è mortale", ha twittato Musk nel 2022, ponendo le basi per l'eventuale rilascio di Grok.
Il pericolo di addestrare l'intelligenza artificiale a essere sveglia - in altre parole, a mentire - è mortale
- Elon Musk (@elonmusk) 16 dicembre 2022
Grok è davvero "non filtrato"?
Molti media suggeriscono che Grok manca di qualsiasi guardrail, ma non è del tutto vero.
Se Grok non avesse alcun tipo di protezione, il tipo di immagini che vedremmo sarebbe praticamente indicibile.
È interessante notare che alcuni utenti di X hanno ritenuto che i filtri di Grok siano stati alzati un paio di giorni dopo il rilascio, limitando la sua propensione a creare i contenuti più espliciti.
Quasi 24 ore dopo, ho di nuovo accesso alla generazione di immagini. Sembra che X abbia applicato una patch all'exploit. La generazione di immagini violente e sessualmente suggestive è stata notevolmente ridotta da ieri sera, almeno per me. Non sembra che... pic.twitter.com/QLp5GWLJRF
- Christian Montessori (@chrmontessori) 16 agosto 2024
Quando si chiede a Grok stesso quali sono i suoi guardrail, viene fuori quanto segue:
- "Evito di generare immagini pornografiche, eccessivamente violente, odiose o che promuovono attività pericolose".
- "Sono cauto nel creare immagini che potrebbero violare i diritti d'autore o i marchi registrati esistenti. Questo include personaggi noti, loghi o qualsiasi contenuto che possa essere considerato proprietà intellettuale senza un elemento di trasformazione".
- "Non genererò immagini che potrebbero essere usate per ingannare o danneggiare altri, come deepfakes destinati a ingannare, o immagini che potrebbero portare a danni reali".
Direi che il guardrail numero uno è probabilmente corretto ora che xAI ha aumentato i suoi filtri.
Gli altri guardrail, tuttavia, rimangono molto deboli. I filtri per il copyright e la proprietà intellettuale sono evidentemente terribili, molto più deboli che in ChatGPT.
La creazione di medley visivi di famosi personaggi protetti da copyright, da Mario a Darth Vader, è straordinariamente semplice.
Ehi, Grok?
Penso che potresti essere citato in giudizio. pic.twitter.com/XDBgFNGgTs
- Silicon Jungle (@JungleSilicon) 14 agosto 2024
È ancora da vedere se xAI aumenterà anche i filtri per il copyright o se si limiterà a scommettere che le aziende non faranno loro causa.
Sebbene quasi tutte le grandi aziende di IA siano state citate in cause sul copyright, non sono ancora emerse sentenze definitive.
Controsensi e preoccupazioni
Grok ha sicuramente modellato le qualità antagoniste del suo padrone, ma c'è davvero un imperativo morale per i prodotti AI non filtrati? O si tratta solo di un rischioso progetto di vanità dettato dall'ego?
Come si può immaginare, i pareri sono decisamente discordanti.
Alejandra Caraballo, avvocato per i diritti civili e docente presso la Cyberlaw Clinic della Harvard Law School, ha definito Grok "una delle implementazioni di IA più sconsiderate e irresponsabili che abbia mai visto".
Caraballoinsieme a giornalisti di importanti testate come il Washington Post, il NYT e la BBC, temono che la mancanza di salvaguardie possa portare a una marea di disinformazione, falsi profondi e contenuti dannosi, soprattutto per quanto riguarda l'enorme base di utenti di X e l'influenza politica dello stesso Musk.
La tempistica del rilascio di Grok, a pochi mesi dalle elezioni presidenziali statunitensi del 2024, ha amplificato queste preoccupazioni.
I critici sostengono che la capacità di generare facilmente immagini e testi fuorvianti su personaggi politici potrebbe destabilizzare i processi democratici. Sebbene gli attuali strumenti di intelligenza artificiale consentano già questo, Grok lo rende molto più accessibile.
Studi indicano che le persone sono effettivamente suscettibili alla manipolazione da parte dei media generati dall'intelligenza artificiale e abbiamo già osservato numerosi casi di falsificazione politica profonda. che si traducono in risultati tangibili.
Il caso dell'IA non filtrata
Musk e i suoi sostenitori sostengono che un'eccessiva moderazione dei contenuti potrebbe privare l'IA della capacità di comprendere e confrontarsi con la comunicazione e la cultura umana.
Opprimere la capacità dell'IA di generare media controversi nega la realtà che la controversia, il disaccordo e il dibattito sono aspetti fondamentali dell'esperienza umana.
Grok è indubbiamente diventato uno strumento di satira a questi fini, che è esattamente ciò che Musk vuole.
Storicamente, i media provocatori e satirici sono stati uno strumento utilizzato dall'uomo nella letteratura, nel teatro, nell'arte e nella commedia per esaminare criticamente la società, prendere in giro le figure autoritarie e sfidare le norme sociali attraverso l'arguzia, l'ironia, il sarcasmo e l'assurdità.
È una tradizione che risale all'Antica Grecia e ai Romani, portata avanti fino ai giorni nostri da innumerevoli e famosi autori di satira letteraria, tra cui Giovenale, Voltaire, Jonathan Swift, Mark Twain e George Orwell.
Musk vuole portare avanti questa tradizione nell'era dell'intelligenza artificiale.
Ma Grok è satirico nel senso tradizionale del termine? Può un'IA, per quanto sofisticata, comprendere davvero le sfumature della società umana come può fare un autore satirico umano?
Chi deve essere ritenuto responsabile se Grok genera contenuti che diffondono disinformazione, perpetuano stereotipi o incitano alla divisione?
L'IA stessa non può essere incolpata, poiché sta semplicemente seguendo la sua programmazione. Gli sviluppatori dell'IA possono avere una certa responsabilità, ma non possono controllare tutti i risultati che l'IA genera.
Alla fine, gli utenti inconsapevoli potrebbero assumersi la responsabilità delle immagini che producono.
Non esiste un'IA oggettiva "non filtrata".
Il concetto di contenuti AI "non filtrati" può essere fuorviante, in quanto suggerisce un livello di obiettività o neutralità che semplicemente non esiste nei sistemi AI.
Ogni aspetto dello sviluppo di Grok, dalla selezione dei dati di addestramento alla messa a punto dei suoi parametri, implica scelte umane e giudizi di valore che danno forma al tipo di contenuto prodotto.
Come la maggior parte dei modelli di intelligenza artificiale generativa, i dati utilizzati per addestrare Grok riflettono probabilmente la pregiudizi e rappresentazioni distorte di contenuti online, compresi stereotipi e visioni del mondo problematiche.
Ad esempio, se i dati di addestramento di Grok contengono una quantità sproporzionata di contenuti che oggettivizzano o sovrasessualizzano le donne, è più probabile che generi risultati che riflettono questo aspetto.
La caratterizzazione di Musk di Grok come "veritiero" o "neutrale" in virtù delle sue risposte non filtrate è problematica.
Grok, come altri sistemi di intelligenza artificiale, è intrinsecamente influenzato da pregiudizi, punti ciechi e squilibri di potere insiti nella nostra società, a prescindere dal fatto che vengano posti o meno determinati filtri agli output.
Neanche la censura dell'intelligenza artificiale fornisce tutte le risposte
Con l'aumento delle preoccupazioni sui potenziali danni dei contenuti generati dall'intelligenza artificiale, sono cresciute anche le richieste di controlli più severi e di una moderazione più aggressiva di ciò che questi sistemi sono autorizzati a produrre.
Per molti versi, l'esistenza stessa di Grok può essere vista come una risposta diretta ai sistemi di IA castrati e censurati rilasciati da OpenAI, Google, Anthropic e così via.
Grok si pone come una sorta di controargomento vivente a queste richieste di censura. Abbracciando apertamente la controversia, incarna l'idea che i tentativi di sopprimere l'IA non faranno altro che generare resistenza e ribellione.
Ricorda lo spirito di ribellione che alla fine ha rovesciato la Comics Code Authority, un organismo di autocensura istituito negli anni Cinquanta per sanificare i contenuti dei fumetti.
Per decenni, il CCA ha soffocato la creatività e limitato la gamma di storie che potevano essere raccontate. Solo quando opere rivoluzionarie come "Watchmen" e "Il ritorno del cavaliere oscuro" si sono liberate da questi vincoli, alla fine degli anni Ottanta, i fumetti hanno potuto esplorare temi più maturi e complessi.
Alcuni psicologi sostengono che i contenuti di fantasia come quelli che vediamo nei fumetti, nei giochi e nei film aiutano l'umanità. esplorare il "sé ombra che si cela nelle persone, il lato oscuro che non sempre vogliamo mostrare.
Come hanno spiegato i professori Daniel De Cremer e Devesh Narayanan in uno studio del 2023L'intelligenza artificiale è uno specchio che riflette i nostri pregiudizi e difetti morali".
L'IA potrebbe anche aver bisogno di un lato oscuro per essere veramente "umana" e servire a scopi umani. Questo settore di nicchia è occupato da Grok e dalle IA open-source che ingeriscono contenuti creati dall'uomo e li rigurgitano senza pregiudizi.
Questo non significa però che non ci debbano essere limiti. Dopotutto, gli strumenti di IA sono principalmente strumenti. Sebbene l'intento sia spesso quello di rendere i modelli di IA più realistici e realistici, in ultima analisi sono progettati per servire uno scopo pratico.
Inoltre, come già detto, gli aspetti buoni, cattivi e brutti dell'IA generativa open-source sono soggetti a pregiudizi, il che offusca qualsiasi messaggio morale di portare la "verità" agli strumenti di IA generativa.
Inoltre, come le opere di fantasia o d'arte, i sistemi di IA possono influenzare direttamente i processi decisionali, plasmare i paesaggi informativi e influire sui risultati del mondo reale per gli individui e la società in generale.
Questo è un punto critico di differenziazione tra il modo in cui giudichiamo i risultati dell'IA generativa rispetto ad altri sforzi creativi.
La via di mezzo
Esiste una via di mezzo tra l'IA libera e la censura troppo restrittiva? Forse.
Per arrivarci, dovremo riflettere in modo critico sui danni specifici che i diversi tipi di contenuti possono causare e progettare sistemi che attenuino tali rischi senza inutili restrizioni.
Questo potrebbe comportare:
- Filtraggio contestuale: Sviluppare un'intelligenza artificiale in grado di comprendere meglio il contesto e l'intento, anziché limitarsi a segnalare le parole chiave.
- IA trasparente: Rendere più trasparenti i processi decisionali dell'IA, in modo che gli utenti possano capire perché determinati contenuti vengono segnalati o limitati.
- Responsabilità dell'utente: Dare agli utenti un maggiore controllo sul tipo di contenuti che vedono, piuttosto che imporre restrizioni universali.
- Formazione etica sull'IA: Concentrarsi sullo sviluppo di IA con solide basi etiche, piuttosto che affidarsi esclusivamente alla moderazione post-hoc dei contenuti.
- Governance collaborativa: Coinvolgere diverse parti interessate - etici, politici e pubblico - nello sviluppo di linee guida sull'IA. Tuttavia, è fondamentale che rappresentino un campione demografico veramente trasversale.
In pratica, creare un'intelligenza artificiale che incorpori i principi e le pratiche di cui sopra senza introdurre svantaggi o comportamenti inaspettati è eccezionalmente difficile.
Non c'è un modo semplice per incorporare valori diversi e rappresentativi in quelli che sono essenzialmente strumenti centralizzati e monolitici.
Come dice Stuart Russell, professore di informatica alla UC Berkeley, argomentazioniL'idea che si possano rendere sicuri i sistemi di intelligenza artificiale semplicemente inculcando loro i giusti valori è sbagliata". "Abbiamo bisogno di sistemi di IA che siano incerti sulle preferenze umane".
Questa incertezza, suggerisce Russell, è essenziale per creare un'intelligenza artificiale in grado di adattarsi alle sfumature e alle contraddizioni dei valori e dell'etica umana.
Mentre la comunità closed-source lavora per produrre IA sicura dal punto di vista commerciale, le IA open-source come Grok, Llama, ecc. trarranno profitto dal fatto di porre meno restrizioni su come le persone possono usare l'IA.
Grok, con tutte le sue controversie e capacità, ci ricorda almeno le sfide e le opportunità che ci attendono nell'era dell'IA.
Costruire l'IA a immagine e somiglianza del "bene superiore" è possibile o pratico?
Oppure dovremmo imparare a convivere con un'IA capace di "uscire dai binari" e di essere controversa, come i suoi creatori?