Alphabet appelle à la prudence : Chatbots d'IA et confidentialité

17 juin 2023

Alphabet, la société mère de Google, met en garde son personnel contre l'utilisation de chatbots, y compris son propre Bard, en raison de craintes concernant la protection des données sensibles. Invoquant une politique de protection des données établie de longue date, l'entreprise a mis en garde son personnel contre la saisie d'informations privées dans les chatbots d'IA. 

Les chatbots tels que Bard et ChatGPT utilisent l'intelligence artificielle générative pour avoir des conversations qui imitent l'interaction humaine et répondent aux demandes des utilisateurs.

Dans le cadre du processus de formation, les examinateurs humains peuvent lire ces interactions. Les chercheurs ont trouvé que les modèles d'IA incorporés dans ces chatbots sont capables de recréer les données ingérées lors de la formation, créant potentiellement un risque de fuite. 

En outre, Alphabet a demandé à ses développeurs de s'abstenir d'utiliser directement le code informatique généré par le chatbot. Bard peut fournir des recommandations en matière de codage, mais l'entreprise est consciente de la nécessité de faire preuve de prudence et d'ouverture quant aux limites de sa technologie. 

Google étant en concurrence avec ChatGPT, un service soutenu par OpenAI et Microsoft, cette stratégie prudente vise à minimiser tout préjudice éventuel pour l'entreprise Google.

Des mesures de sécurité similaires ont été prises par d'autres entreprises, notamment Samsung, Amazon et la Deutsche Bank, ce qui montre que la barre est de plus en plus haute en matière de sécurité des entreprises. 

La possibilité que des informations incorrectes, privées ou même protégées par des droits d'auteur soient partagées dans les discussions avec les chatbots suscite des inquiétudes.

Certaines entreprises ont créé des solutions logicielles pour résoudre ces problèmes. Par exemple, Cloudflare offre la possibilité de marquer et de limiter le transfert de données à l'extérieur, protégeant ainsi les données sensibles. 

Même s'ils sont plus chers, Google et Microsoft fournissent également des outils conversationnels pour les clients commerciaux qui n'incluent pas leurs données dans les modèles d'IA en libre accès. Bien que les utilisateurs puissent choisir de les supprimer, Bard et ChatGPT conservent par défaut l'historique des conversations des utilisateurs.

Yusuf Mehdi, directeur marketing de la division grand public de Microsoft, a déclaré : "Il est logique que les entreprises évitent d'utiliser des chatbots accessibles au grand public pour des raisons professionnelles. Par rapport à son chatbot Bing gratuit, Microsoft fixe des règles plus strictes pour ses logiciels commerciaux. Un autre dirigeant a admis des limites personnelles à l'utilisation de ces programmes, malgré le silence de Microsoft sur le sujet d'une interdiction générale des informations propriétaires dans les programmes d'IA accessibles au public".

Les mesures de sécurité mises en œuvre par Alphabet et d'autres entreprises soulignent la nécessité de garantir la protection des données privées lors de l'utilisation de chatbots d'IA. Les entreprises peuvent réduire les risques et assurer la confidentialité des données en mettant en place des règles et des solutions techniques.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Jay Parmar

Jay est rédacteur technique et diplômé en informatique. Il est passionné depuis longtemps par l'IA et la ML et écrit pour diverses plateformes telles que HashDork et TutorialsPoint. En dehors de ses heures de travail, Jay simplifie la technologie et travaille en freelance.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation