Alphabet invita alla cautela: Chatbot AI e riservatezza

17 giugno 2023

La società madre di Google, Alphabet, sta mettendo in guardia il personale dall'utilizzo di chatbot, incluso il proprio Bard, a causa delle preoccupazioni sulla protezione dei dati sensibili. Citando una politica di protezione dei dati di lunga data, l'azienda ha messo in guardia il personale dall'inserire informazioni private nei chatbot AI. 

Chatbot come Bard e ChatGPT impiegano l'intelligenza artificiale generativa per avere conversazioni che imitano l'interazione umana e rispondere alle richieste degli utenti.

Come parte del processo di formazione, i revisori umani possono leggere queste interazioni. I ricercatori hanno trovato che i modelli di intelligenza artificiale incorporati in questi chatbot sono in grado di ricreare i dati ingeriti durante l'addestramento, creando potenzialmente un rischio di fuga di notizie. 

Inoltre, Alphabet ha dato istruzioni ai suoi sviluppatori di astenersi dall'utilizzare direttamente il codice informatico generato dai chatbot. Bard può fornire raccomandazioni sulla codifica, ma l'azienda comprende la necessità di prudenza e apertura sui limiti della sua tecnologia. 

Poiché Google è in concorrenza con ChatGPT, un servizio sostenuto da OpenAI e Microsoft, questa attenta strategia mira a minimizzare ogni possibile danno all'azienda di Google.

Misure di sicurezza simili sono state adottate da altre aziende, tra cui Samsung, Amazon e Deutsche Bank, a dimostrazione dell'innalzamento del livello di sicurezza aziendale. 

Le preoccupazioni sono dovute alla possibilità che nelle discussioni con i chatbot vengano condivise informazioni non corrette, informazioni private o addirittura materiale protetto da copyright.

Alcune aziende hanno creato soluzioni software per risolvere questi problemi. Ad esempio, Cloudflare offre la possibilità di etichettare e limitare il trasferimento dei dati all'esterno, proteggendo i dati sensibili. 

Anche se sono più costosi, Google e Microsoft forniscono strumenti di conversazione per clienti commerciali che non includono i loro dati nei modelli di intelligenza artificiale open-source. Sebbene gli utenti possano scegliere di rimuoverli, Bard e ChatGPT conservano per impostazione predefinita la cronologia delle chat degli utenti.

Yusuf Mehdi, chief marketing officer della divisione consumer di Microsoft, ha dichiarato: "È logico che le aziende evitino di utilizzare i chatbot disponibili al pubblico per motivi di lavoro. Rispetto al suo chatbot gratuito Bing, Microsoft stabilisce regole più severe per il suo software commerciale. Un altro dirigente ha ammesso limitazioni personali nell'uso di tali programmi, nonostante il silenzio di Microsoft sull'argomento del divieto generale di informazioni proprietarie nei programmi di intelligenza artificiale accessibili al pubblico".

Le misure di sicurezza implementate da Alphabet e da altre aziende sottolineano la necessità di garantire la protezione dei dati privati durante l'utilizzo dei chatbot AI. Le aziende possono ridurre i rischi e garantire la riservatezza dei dati adottando regole e soluzioni tecniche.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Jay Parmar

Jay è uno scrittore tecnico e laureato in Informatica. È un appassionato di AI e ML da lungo tempo e scrive per varie piattaforme come HashDork e TutorialsPoint. Fuori servizio, Jay semplifica la tecnologia e lavora come freelance.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni