Le aziende si stanno affrettando a sfruttare l'IA generativa, ma le indagini rivelano che questo comporta dei rischi.
Secondo una recente dati da BlackBerryUno sconcertante 75% di aziende sta vietando o pensando di limitare l'uso di strumenti come ChatGPT e altre piattaforme di IA generativa.
La ricerca ha indicato che 61% delle organizzazioni che stanno prendendo in considerazione questa mossa ritengono che le restrizioni potrebbero essere permanenti o di lunga durata.
Hanno partecipato 2.000 decisori IT provenienti da Stati Uniti, Regno Unito, Canada, Germania, Francia, Paesi Bassi, Giappone e Australia.
I dirigenti hanno citato le preoccupazioni legate alla sicurezza dei dati, alla privacy e al potenziale danno alla reputazione del marchio.
Una netta maggioranza (80%) ritiene che sia una prerogativa dell'organizzazione consentire o negare le applicazioni utilizzate dai dipendenti per il lavoro, e 74% ritengono che un divieto assoluto possa essere eccessivo.
Ci sono anche risultati positivi. Circa 55% riconoscono i vantaggi dell'IA in termini di efficienza, 52% credono nel suo potere di promuovere l'innovazione e 51% ritengono che possa aumentare la creatività. Un altro 81% ha visto il suo potenziale utilizzo per rafforzare le difese di sicurezza informatica.
Il governo statunitense ha recentemente annunciato un sfida alla sicurezza informatica per progettare applicazioni di IA per rafforzare la sicurezza nazionale.
Shishir Singh, Chief Technology Officer di BlackBerry, ha commentato i risultati: "Vietare le applicazioni di IA generativa sul posto di lavoro può significare vanificare una serie di potenziali vantaggi aziendali".
E aggiunge: "Con la maturazione delle piattaforme e l'entrata in vigore delle normative, si potrebbe introdurre la flessibilità nelle politiche organizzative. La chiave sarà disporre degli strumenti giusti per la visibilità, il monitoraggio e la gestione delle applicazioni utilizzate sul posto di lavoro".
Una ricerca di Gartner evidenzia rischi simili legati all'IA per le imprese
Un recente Sondaggio Gartner di 249 dirigenti senior ha rivelato risultati simili alla ricerca di BlackBerry, evidenziando le preoccupazioni relative alla sicurezza, alla proprietà intellettuale e all'eccessiva dipendenza da tecnologie di terze parti.
- Viabilità di terze parti (67%): I dirigenti hanno espresso preoccupazioni circa la stabilità o l'affidabilità di partner o fornitori esterni di IA. Se queste terze parti dovessero avere problemi, potrebbero avere effetti a cascata sulle organizzazioni che dipendono da loro.
- Disponibilità di AI generativa di massa (66%): La proliferazione degli strumenti di IA generativa suscita preoccupazioni in materia di proprietà intellettuale, privacy e sicurezza informatica.
- Incertezza nella pianificazione finanziaria (62%): Le organizzazioni possono trovarsi ad affrontare sfide nei loro processi di pianificazione finanziaria causate da condizioni economiche mutevoli, cambiamenti normativi o volatilità del mercato.
- Rischio di concentrazione delle nuvole (62%): Poiché le aziende si affidano sempre più a soluzioni basate sul cloud, cresce il rischio di dipendere troppo da un unico fornitore di cloud.
- Tensioni commerciali in Cina (56%): In corso tensioni commerciali con la Cina accennano a potenziali perturbazioni del commercio internazionale, con ripercussioni sulle catene di approvvigionamento, sulle tariffe e sulla stabilità dei mercati.
Ran Xu, direttore della ricerca per la divisione Risk and Audit di Gartner, ha evidenziato che l'IA generativa ha registrato un'impennata nella sua indagine trimestrale sui rischi.
Xu ha dichiarato: "Ciò riflette sia la rapida crescita della consapevolezza e dell'uso degli strumenti di IA generativa da parte del pubblico, sia l'ampiezza dei potenziali casi d'uso e, quindi, dei potenziali rischi che questi strumenti comportano".
Gli strumenti di intelligenza artificiale sono ancora sviluppati prevalentemente da poche aziende, il che significa che le aziende che costruiscono flussi di lavoro su di essi sono vulnerabili alle fluttuazioni delle prestazioni in un mercato a bassa concorrenza. Questo è evidente nei recenti dibattiti sulla qualità dell'output di GPT-4, che ha secondo quanto riferito, ha rifiutato negli ultimi mesi.
OpenAI ha ammesso che le prestazioni sono diminuite in alcuni compiti, ma non ha ancora rivelato i dettagli tecnici del perché.
Le fluttuazioni delle prestazioni dell'intelligenza artificiale sono una cattiva notizia per le aziende che costruiscono flussi di lavoro critici per l'azienda attorno a modelli che non controllano.