Alphabet, het moederbedrijf van Google, waarschuwt personeel tegen het gebruik van chatbots, waaronder de eigen Bard, vanwege zorgen over de bescherming van gevoelige gegevens. Onder verwijzing naar een al lang bestaand beleid voor gegevensbescherming heeft het bedrijf zijn personeel gewaarschuwd om geen privégegevens in te voeren in AI-chatbots.
Chatbots zoals Bard en ChatGPT maken gebruik van generatieve kunstmatige intelligentie om gesprekken te voeren die menselijke interactie nabootsen en te reageren op verzoeken van gebruikers.
Als onderdeel van het trainingsproces kunnen menselijke beoordelaars deze interacties lezen. Onderzoekers hebben het volgende gevonden dat de AI-modellen die in deze chatbots zijn ingebouwd in staat zijn om de gegevens die tijdens de training zijn opgenomen opnieuw te creëren, waardoor mogelijk een lekrisico ontstaat.
Daarnaast heeft Alphabet zijn ontwikkelaars geïnstrueerd om chatbot-gegenereerde computercode niet direct te gebruiken. Bard kan coderingsaanbevelingen geven, maar het bedrijf begrijpt de noodzaak van voorzichtigheid en openheid over de beperkingen van zijn technologie.
Aangezien Google concurreert met ChatGPT, een dienst die wordt ondersteund door OpenAI en Microsoft, is deze voorzichtige strategie erop gericht om mogelijke schade voor Google's bedrijf te minimaliseren.
Vergelijkbare beveiligingsmaatregelen zijn genomen door andere bedrijven, waaronder Samsung, Amazon en Deutsche Bank, waaruit blijkt dat de lat voor bedrijfsbeveiliging steeds hoger komt te liggen.
Er bestaat bezorgdheid over de mogelijkheid dat onjuiste informatie, privé-informatie of zelfs auteursrechtelijk beschermd materiaal wordt gedeeld in chatbot-discussies.
Sommige bedrijven hebben softwareoplossingen gemaakt om deze problemen op te lossen. Cloudflare biedt bijvoorbeeld de optie om gegevensoverdracht naar buiten te labelen en te beperken, waardoor gevoelige gegevens worden beschermd.
Hoewel ze duurder zijn, bieden Google en Microsoft ook conversatietools voor commerciële klanten die hun gegevens niet opnemen in open-source AI-modellen. Hoewel gebruikers de keuze hebben om deze te verwijderen, bewaren Bard en ChatGPT standaard de chatgeschiedenis van gebruikers.
Yusuf Mehdi, chief marketing officer voor Microsofts consumentendivisie, zei: "Het is logisch dat bedrijven chatbots die beschikbaar zijn voor het grote publiek niet gebruiken om zakelijke redenen. Vergeleken met zijn gratis Bing chatbot, stelt Microsoft strengere regels voor zijn commerciële software. Een andere leidinggevende gaf persoonlijke beperkingen toe bij het gebruik van dergelijke programma's, ondanks Microsofts stilzwijgen over een algemeen verbod op bedrijfseigen informatie in publiek toegankelijke AI-programma's".
De veiligheidsmaatregelen die Alphabet en andere bedrijven hebben geïmplementeerd, benadrukken de noodzaak om de bescherming van privégegevens te garanderen bij het gebruik van AI-chatbots. Bedrijven kunnen risico's verminderen en de vertrouwelijkheid van gegevens waarborgen door regels en technische oplossingen in te voeren.