Alfabetet uppmanar till försiktighet: AI-chattbottar och sekretess

17 juni 2023

Googles moderbolag Alphabet varnar personalen för att använda chatbottar, inklusive sin egen Bard, på grund av oro för att skydda känsliga uppgifter. Med hänvisning till en långvarig dataskyddspolicy har företaget varnat personalen för att ange privat information i AI-chattbottar. 

Chatbots som Bard och ChatGPT använder generativ artificiell intelligens för att föra konversationer som efterliknar mänsklig interaktion och svara på användarförfrågningar.

Som en del av utbildningsprocessen kan mänskliga granskare läsa dessa interaktioner. Forskare har funnit att de AI-modeller som ingår i dessa chatbottar kan återskapa de data som tagits in under utbildningen, vilket potentiellt kan skapa en läckagerisk. 

Dessutom har Alphabet instruerat sina utvecklare att avstå från att använda chatbotgenererad datorkod direkt. Bard kan ge kodningsrekommendationer, men företaget förstår behovet av försiktighet och öppenhet om begränsningarna i sin teknik. 

Eftersom Google konkurrerar med ChatGPT, en tjänst som stöds av OpenAI och Microsoft, syftar denna försiktiga strategi till att minimera eventuell skada för Googles företag.

Liknande säkerhetsåtgärder har vidtagits av andra företag, bland annat Samsung, Amazon och Deutsche Bank, vilket visar att ribban för företagssäkerhet höjs. 

Det finns farhågor om att felaktig information, privat information eller till och med upphovsrättsskyddat material kan delas i chatbot-diskussioner.

Vissa företag har skapat mjukvarulösningar för att lösa dessa problem. Cloudflare ger till exempel möjlighet att märka och begränsa dataöverföring utanför, vilket skyddar känsliga uppgifter. 

Även om de är dyrare tillhandahåller Google och Microsoft också konversationsverktyg för kommersiella kunder som inte inkluderar sina data i AI-modeller med öppen källkod. Även om användarna kan välja att ta bort den, bevarar Bard och ChatGPT som standard användarnas chatthistorik.

Yusuf Mehdi, Chief Marketing Officer för Microsofts konsumentdivision, sa: "Det är vettigt för företag att undvika att använda chatbots som är tillgängliga för allmänheten av affärsskäl. Jämfört med sin gratis Bing-chatbot sätter Microsoft hårdare regler för sin kommersiella programvara. En annan chef medgav personliga begränsningar för att använda sådana program, trots Microsofts tystnad i frågan om ett allmänt förbud mot äganderättslig information i offentligt tillgängliga AI-program".

De säkerhetsåtgärder som Alphabet och andra företag har vidtagit understryker behovet av att garantera skyddet av privata uppgifter vid användning av AI-chatbottar. Företag kan minska riskerna och säkerställa datasekretess genom att införa regler och tekniska lösningar.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Jay Parmar

Jay är teknisk skribent och har en examen i datavetenskap. Han är en långvarig AI- och ML-entusiast och skriver för olika plattformar som HashDork, TutorialsPoint. När han inte är i tjänst förenklar Jay teknik och frilansar.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar