Googles morselskap, Alphabet, advarer ansatte mot å bruke chatboter, inkludert sin egen Bard, på grunn av bekymring for å beskytte sensitive data. Med henvisning til en mangeårig personvernpolicy har virksomheten advart ansatte mot å legge inn privat informasjon i AI-chatboter.
Chatboter som Bard og ChatGPT bruker generativ kunstig intelligens til å føre samtaler som etterligner menneskelig interaksjon og svarer på brukerforespørsler.
Som en del av opplæringsprosessen kan menneskelige korrekturlesere lese disse interaksjonene. Forskere har funnet at AI-modellene som er innlemmet i disse chatbotene, er i stand til å gjenskape dataene som er tatt inn under opplæringen, noe som potensielt kan skape en lekkasjerisiko.
I tillegg har Alphabet instruert sine utviklere om å avstå fra å bruke chatbot-genererte datakoder direkte. Bard kan gi kodingsanbefalinger, men virksomheten forstår behovet for forsiktighet og åpenhet om begrensningene i teknologien.
Ettersom Google konkurrerer med ChatGPT, en tjeneste som støttes av OpenAI og Microsoft, har denne forsiktige strategien som mål å minimere eventuell skade på Googles selskap.
Lignende sikkerhetstiltak har blitt iverksatt av andre virksomheter, deriblant Samsung, Amazon og Deutsche Bank, noe som viser at listen for bedriftssikkerhet er blitt høyere.
Det er grunn til bekymring at feil informasjon, privat informasjon eller til og med opphavsrettsbeskyttet materiale kan bli delt i chatbot-diskusjoner.
Noen firmaer har laget programvareløsninger for å løse disse problemene. Cloudflare tilbyr for eksempel muligheten til å merke og begrense dataoverføring utenfor, noe som beskytter sensitive data.
Selv om de er dyrere, tilbyr Google og Microsoft også samtaleverktøy for kommersielle kunder som ikke inkluderer dataene deres i AI-modeller med åpen kildekode. Selv om brukerne kan velge å fjerne dem, bevarer Bard og ChatGPT som standard brukernes chattehistorikk.
Yusuf Mehdi, markedssjef for Microsofts forbrukerdivisjon, sier: "Det er fornuftig for bedrifter å unngå å bruke chatboter som er tilgjengelige for allmennheten av forretningsmessige årsaker. Sammenlignet med den gratis Bing-chatboten setter Microsoft strengere regler for sin kommersielle programvare. En annen leder innrømmet personlige begrensninger i bruken av slike programmer, til tross for Microsofts taushet om et generelt forbud mot proprietær informasjon i offentlig tilgjengelige AI-programmer".
Sikkerhetstiltakene som Alphabet og andre virksomheter har iverksatt, understreker nødvendigheten av å garantere beskyttelse av private data ved bruk av AI-chatboter. Virksomheter kan redusere risikoen og sikre konfidensialitet ved å innføre regler og tekniske løsninger.