Alphabet mahnt zur Vorsicht: AI Chatbots & Vertraulichkeit

Juni 17, 2023

Der Mutterkonzern von Google, Alphabet, warnt seine Mitarbeiter vor der Nutzung von Chatbots, einschließlich der eigenen Bard, da man sich Sorgen um den Schutz sensibler Daten macht. Unter Berufung auf eine seit langem bestehende Datenschutzrichtlinie hat das Unternehmen seine Mitarbeiter davor gewarnt, private Informationen in KI-Chatbots einzugeben. 

Chatbots wie Bard und ChatGPT nutzen generative künstliche Intelligenz, um Gespräche zu führen, die menschliche Interaktion imitieren und auf Nutzeranfragen reagieren.

Im Rahmen des Schulungsprozesses können die menschlichen Prüfer diese Interaktionen lesen. Die Forscher haben herausgefunden dass die in diese Chatbots eingebauten KI-Modelle in der Lage sind, die während des Trainings aufgenommenen Daten neu zu erstellen, wodurch ein Leckrisiko entstehen könnte. 

Außerdem hat Alphabet seine Entwickler angewiesen, Chatbot-generierten Computercode nicht direkt zu verwenden. Bard kann Empfehlungen für die Codierung geben, aber das Unternehmen versteht die Notwendigkeit von Vorsicht und Offenheit bezüglich der Grenzen seiner Technologie. 

Da Google mit ChatGPT konkurriert, einem Dienst, der von OpenAI und Microsoft unterstützt wird, zielt diese vorsichtige Strategie darauf ab, möglichen Schaden für Googles Unternehmen zu minimieren.

Ähnliche Sicherheitsmaßnahmen wurden auch von anderen Unternehmen ergriffen, darunter Samsung, Amazon und die Deutsche Bank, was zeigt, dass die Messlatte für die Unternehmenssicherheit immer höher wird. 

Die Möglichkeit, dass in Chatbot-Diskussionen falsche Informationen, private Informationen oder sogar urheberrechtlich geschütztes Material weitergegeben werden, gibt Anlass zur Sorge.

Einige Unternehmen haben Softwarelösungen entwickelt, um diese Probleme zu lösen. Cloudflare beispielsweise bietet die Möglichkeit, die Datenübertragung nach außen zu markieren und zu begrenzen, um sensible Daten zu schützen. 

Obwohl sie teurer sind, bieten Google und Microsoft auch Konversationstools für kommerzielle Kunden an, die ihre Daten nicht in Open-Source-KI-Modelle aufnehmen. Bard und ChatGPT bewahren die Chatverläufe der Nutzer standardmäßig auf, obwohl die Nutzer die Möglichkeit haben, sie zu entfernen.

Yusuf Mehdi, Chief Marketing Officer für Microsofts Verbrauchersparte, sagte: "Es ist sinnvoll, dass Unternehmen Chatbots, die der Allgemeinheit zur Verfügung stehen, aus geschäftlichen Gründen nicht nutzen. Im Vergleich zu seinem kostenlosen Bing-Chatbot stellt Microsoft strengere Regeln für seine kommerzielle Software auf. Ein anderer leitender Angestellter räumte persönliche Einschränkungen bei der Nutzung solcher Programme ein, ungeachtet des Schweigens von Microsoft zum Thema eines generellen Verbots geschützter Informationen in öffentlich zugänglichen KI-Programmen".

Die von Alphabet und anderen Unternehmen eingeführten Sicherheitsmaßnahmen unterstreichen die Notwendigkeit, den Schutz privater Daten beim Einsatz von KI-Chatbots zu gewährleisten. Unternehmen können Risiken reduzieren und die Vertraulichkeit von Daten sicherstellen, indem sie Regeln und technische Lösungen einführen.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Jay Parmar

Jay ist technischer Autor und hat einen Abschluss in Informatik. Er ist ein langjähriger KI- und ML-Enthusiast und schreibt für verschiedene Plattformen wie HashDork und TutorialsPoint. Außerhalb der Arbeitszeit vereinfacht Jay Technik und arbeitet freiberuflich.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen