Alphabet oppfordrer til forsiktighet: AI-chatbots og konfidensialitet

17. juni 2023

Googles morselskap, Alphabet, advarer ansatte mot å bruke chatboter, inkludert sin egen Bard, på grunn av bekymring for å beskytte sensitive data. Med henvisning til en mangeårig personvernpolicy har virksomheten advart ansatte mot å legge inn privat informasjon i AI-chatboter. 

Chatboter som Bard og ChatGPT bruker generativ kunstig intelligens til å føre samtaler som etterligner menneskelig interaksjon og svarer på brukerforespørsler.

Som en del av opplæringsprosessen kan menneskelige korrekturlesere lese disse interaksjonene. Forskere har funnet at AI-modellene som er innlemmet i disse chatbotene, er i stand til å gjenskape dataene som er tatt inn under opplæringen, noe som potensielt kan skape en lekkasjerisiko. 

I tillegg har Alphabet instruert sine utviklere om å avstå fra å bruke chatbot-genererte datakoder direkte. Bard kan gi kodingsanbefalinger, men virksomheten forstår behovet for forsiktighet og åpenhet om begrensningene i teknologien. 

Ettersom Google konkurrerer med ChatGPT, en tjeneste som støttes av OpenAI og Microsoft, har denne forsiktige strategien som mål å minimere eventuell skade på Googles selskap.

Lignende sikkerhetstiltak har blitt iverksatt av andre virksomheter, deriblant Samsung, Amazon og Deutsche Bank, noe som viser at listen for bedriftssikkerhet er blitt høyere. 

Det er grunn til bekymring at feil informasjon, privat informasjon eller til og med opphavsrettsbeskyttet materiale kan bli delt i chatbot-diskusjoner.

Noen firmaer har laget programvareløsninger for å løse disse problemene. Cloudflare tilbyr for eksempel muligheten til å merke og begrense dataoverføring utenfor, noe som beskytter sensitive data. 

Selv om de er dyrere, tilbyr Google og Microsoft også samtaleverktøy for kommersielle kunder som ikke inkluderer dataene deres i AI-modeller med åpen kildekode. Selv om brukerne kan velge å fjerne dem, bevarer Bard og ChatGPT som standard brukernes chattehistorikk.

Yusuf Mehdi, markedssjef for Microsofts forbrukerdivisjon, sier: "Det er fornuftig for bedrifter å unngå å bruke chatboter som er tilgjengelige for allmennheten av forretningsmessige årsaker. Sammenlignet med den gratis Bing-chatboten setter Microsoft strengere regler for sin kommersielle programvare. En annen leder innrømmet personlige begrensninger i bruken av slike programmer, til tross for Microsofts taushet om et generelt forbud mot proprietær informasjon i offentlig tilgjengelige AI-programmer".

Sikkerhetstiltakene som Alphabet og andre virksomheter har iverksatt, understreker nødvendigheten av å garantere beskyttelse av private data ved bruk av AI-chatboter. Virksomheter kan redusere risikoen og sikre konfidensialitet ved å innføre regler og tekniske løsninger.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Jay Parmar

Jay er teknisk skribent og utdannet informatiker. Han har lenge vært en AI- og ML-entusiast og skriver for ulike plattformer som HashDork og TutorialsPoint. Når han ikke er på jobb, forenkler Jay teknologi og frilanser.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser