Alphabet maant tot voorzichtigheid: AI-chatbots en vertrouwelijkheid

17 juni 2023

Alphabet, het moederbedrijf van Google, waarschuwt personeel tegen het gebruik van chatbots, waaronder de eigen Bard, vanwege zorgen over de bescherming van gevoelige gegevens. Onder verwijzing naar een al lang bestaand beleid voor gegevensbescherming heeft het bedrijf zijn personeel gewaarschuwd om geen privégegevens in te voeren in AI-chatbots. 

Chatbots zoals Bard en ChatGPT maken gebruik van generatieve kunstmatige intelligentie om gesprekken te voeren die menselijke interactie nabootsen en te reageren op verzoeken van gebruikers.

Als onderdeel van het trainingsproces kunnen menselijke beoordelaars deze interacties lezen. Onderzoekers hebben het volgende gevonden dat de AI-modellen die in deze chatbots zijn ingebouwd in staat zijn om de gegevens die tijdens de training zijn opgenomen opnieuw te creëren, waardoor mogelijk een lekrisico ontstaat. 

Daarnaast heeft Alphabet zijn ontwikkelaars geïnstrueerd om chatbot-gegenereerde computercode niet direct te gebruiken. Bard kan coderingsaanbevelingen geven, maar het bedrijf begrijpt de noodzaak van voorzichtigheid en openheid over de beperkingen van zijn technologie. 

Aangezien Google concurreert met ChatGPT, een dienst die wordt ondersteund door OpenAI en Microsoft, is deze voorzichtige strategie erop gericht om mogelijke schade voor Google's bedrijf te minimaliseren.

Vergelijkbare beveiligingsmaatregelen zijn genomen door andere bedrijven, waaronder Samsung, Amazon en Deutsche Bank, waaruit blijkt dat de lat voor bedrijfsbeveiliging steeds hoger komt te liggen. 

Er bestaat bezorgdheid over de mogelijkheid dat onjuiste informatie, privé-informatie of zelfs auteursrechtelijk beschermd materiaal wordt gedeeld in chatbot-discussies.

Sommige bedrijven hebben softwareoplossingen gemaakt om deze problemen op te lossen. Cloudflare biedt bijvoorbeeld de optie om gegevensoverdracht naar buiten te labelen en te beperken, waardoor gevoelige gegevens worden beschermd. 

Hoewel ze duurder zijn, bieden Google en Microsoft ook conversatietools voor commerciële klanten die hun gegevens niet opnemen in open-source AI-modellen. Hoewel gebruikers de keuze hebben om deze te verwijderen, bewaren Bard en ChatGPT standaard de chatgeschiedenis van gebruikers.

Yusuf Mehdi, chief marketing officer voor Microsofts consumentendivisie, zei: "Het is logisch dat bedrijven chatbots die beschikbaar zijn voor het grote publiek niet gebruiken om zakelijke redenen. Vergeleken met zijn gratis Bing chatbot, stelt Microsoft strengere regels voor zijn commerciële software. Een andere leidinggevende gaf persoonlijke beperkingen toe bij het gebruik van dergelijke programma's, ondanks Microsofts stilzwijgen over een algemeen verbod op bedrijfseigen informatie in publiek toegankelijke AI-programma's".

De veiligheidsmaatregelen die Alphabet en andere bedrijven hebben geïmplementeerd, benadrukken de noodzaak om de bescherming van privégegevens te garanderen bij het gebruik van AI-chatbots. Bedrijven kunnen risico's verminderen en de vertrouwelijkheid van gegevens waarborgen door regels en technische oplossingen in te voeren.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Jay Parmar

Jay is technisch schrijver en afgestudeerd in computerwetenschappen. Hij is al lange tijd enthousiast over AI en ML en schrijft voor verschillende platforms zoals HashDork en TutorialsPoint. Buiten zijn werk vereenvoudigt Jay techniek en werkt hij als freelancer.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden