Microsoft ha annunciato l'imminente rilascio del suo assistente AI integrato in ChatGPT, "Microsoft 365 Copilot", che sarà integrato nel suo software per ufficio..
A partire dal 1° novembre, lo strumento di intelligenza artificiale verrà distribuito agli utenti di tutto il mondo. Tra le sue numerose funzioni, l'intelligenza artificiale è in grado di generare riepiloghi delle riunioni di Microsoft Teams per le persone che non possono o non vogliono partecipare.
In altre parole, Copilot può partecipare alle riunioni per voi e potrebbe conquistare qualche cliente solo per questo.
Inoltre, l'intelligenza artificiale è in grado di redigere messaggi di posta elettronica, creare documenti Word, disegnare grafici in fogli di calcolo e persino progettare presentazioni in PowerPoint tramite messaggi.
La visione di Microsoft per Copilot è chiara. È convinta che "eliminerà la "fatica"", in sostanza eliminando le cose che le persone non vogliono fare. Come afferma Microsoft, "gli utenti di Teams a livello globale partecipano a un numero di riunioni settimanali tre volte superiore a quello registrato nel 2020".
Un potenziale problema è che il Copilot di Microsoft può creare situazioni in cui le persone interagiscono inavvertitamente con l'IA. Potreste partecipare a una riunione e l'assistente AI di qualcuno vi sta ascoltando. Dove vanno a finire questi dati e sono sicuri?
Microsoft afferma con fermezza che tutti i dati elaborati da Copilot sono protetti e non vengono riutilizzati per un ulteriore addestramento dell'intelligenza artificiale.
Sebbene molti strumenti forniscano già note testuali generate automaticamente dalle riunioni, il coinvolgimento diretto dell'intelligenza artificiale pone nuove domande.
Inoltre, alcune normative, come la legge europea sull'IA e le regole cinesi sull'IA, stabiliscono che le persone devono essere informate se stanno interagendo con l'IA invece che con gli esseri umani.
Collette Stallbaumer, responsabile di Microsoft 365, ha dichiarato: "È uno strumento e le persone hanno la responsabilità di usarlo in modo responsabile". Stallbaumer ha continuato: "L'utente ha accesso solo ai dati che altrimenti sarebbe autorizzato a vedere. Rispetta le politiche sui dati".
Ha poi aggiunto: "Quando vi invio la risposta, potrei non dirvi che ho usato un assistente AI per generarla. Ma l'uomo è sempre coinvolto e ha sempre il controllo".
Rimangono tuttavia degli interrogativi, soprattutto perché l'AI Act dell'UE attribuisce la responsabilità di un utilizzo sicuro agli sviluppatori.
"Le persone hanno la responsabilità di usarlo in modo responsabile" è forse improbabile che sia una difesa corretta.
L'approccio di Microsoft all'uso improprio dell'IA è stato ondivago. Ad esempio, l'azienda ha promesso per pagare le spese legali di chiunque venga citato in giudizio utilizzando Copilot.
Ciò ha in qualche modo rappresentato un'ammissione del fatto che Copilot è effettivamente in grado di produrre informazioni protette da copyright che le aziende non possono utilizzare.
Man mano che strumenti come Copilot si integrano nella vita e nei flussi di lavoro delle persone, è difficile prevedere quali funzioni saranno interessate dalle prossime normative e quali sfuggiranno alla rete senza alcun controllo.