Googles moderselskab, Alphabet, advarer medarbejderne mod at bruge chatbots, herunder sin egen Bard, på grund af bekymringer om beskyttelse af følsomme data. Med henvisning til en mangeårig databeskyttelsespolitik har virksomheden advaret medarbejderne mod at indtaste private oplysninger i AI-chatbots.
Chatbots som Bard og ChatGPT anvender generativ kunstig intelligens til at føre samtaler, der efterligner menneskelig interaktion og reagerer på brugernes anmodninger.
Som en del af træningsprocessen kan menneskelige bedømmere læse disse interaktioner. Forskere har fundet at de AI-modeller, der er indbygget i disse chatbots, er i stand til at genskabe de data, der er optaget under træningen, hvilket potentielt kan skabe en lækagerisiko.
Derudover har Alphabet instrueret sine udviklere om at afstå fra at anvende chatbot-genereret computerkode direkte. Bard kan give kodningsanbefalinger, men virksomheden forstår behovet for forsigtighed og åbenhed om begrænsningerne i dens teknologi.
Da Google konkurrerer med ChatGPT, en tjeneste, der støttes af OpenAI og Microsoft, har denne forsigtige strategi til formål at minimere enhver mulig skade på Googles virksomhed.
Lignende sikkerhedsforanstaltninger er blevet truffet af andre virksomheder, herunder Samsung, Amazon og Deutsche Bank, hvilket viser, at barren for virksomhedssikkerhed er ved at blive hævet.
Der er bekymring for, at ukorrekte oplysninger, private oplysninger eller endda ophavsretligt beskyttet materiale kan blive delt i chatbot-diskussioner.
Nogle firmaer har skabt softwareløsninger til at løse disse problemer. Cloudflare giver f.eks. mulighed for at mærke og begrænse dataoverførsler ud af huset og dermed beskytte følsomme data.
Selv om de er dyrere, leverer Google og Microsoft også samtaleværktøjer til kommercielle kunder, som ikke inkluderer deres data i open source AI-modeller. Selvom brugerne har mulighed for at fjerne dem, bevarer Bard og ChatGPT som standard brugernes chathistorik.
Yusuf Mehdi, marketingchef for Microsofts forbrugerafdeling, sagde: "Det giver mening for virksomheder at undgå at bruge chatbots, der er tilgængelige for offentligheden, af forretningsmæssige årsager. Sammenlignet med den gratis Bing-chatbot sætter Microsoft hårdere regler for sin kommercielle software. En anden leder indrømmede personlige begrænsninger i brugen af sådanne programmer, på trods af Microsofts tavshed om et generelt forbud mod ejendomsretligt beskyttede oplysninger i offentligt tilgængelige AI-programmer".
De sikkerhedsforanstaltninger, som Alphabet og andre virksomheder har implementeret, understreger nødvendigheden af at garantere beskyttelsen af private data, når man bruger AI-chatbots. Virksomheder kan reducere risici og sikre datafortrolighed ved at indføre regler og tekniske løsninger.