Google a mis en place un chat Discord exclusif pour son chatbot d'IA Bard - un espace où les ingénieurs, les chefs de produit et les concepteurs de Google peuvent discuter en toute franchise et évaluer les performances et la valeur de l'outil d'IA.
Des conversations internes ont montré que les chercheurs de Google ne sont pas totalement investis dans l'efficacité ou l'utilité de Bard, qui reste un choix périphérique par rapport à d'autres chatbots d'IA comme ChatGPT.
De juillet à octobre, Bloomberg a obtenu des informations sur les détails des discussions au sein du serveur Discord Bard de Google auprès de deux participants de la communauté. Les discussions ont révélé un débat interne sur l'efficacité et l'utilisation de Bard.
Dominik Rabiej, chef de produit senior chez Bard, a exprimé un scepticisme prudent dans un message publié en juillet sur Discord.
Il a déclaré : "Ma règle de base est de ne pas faire confiance aux résultats du LLM à moins de pouvoir les vérifier de manière indépendante", ce qui met en lumière les incertitudes persistantes concernant les capacités de Bard.
Un autre cadre éminent, Cathy Pearl, responsable de l'expérience utilisateur de Bard, a également fait part de son ambiguïté quant à l'utilité de Bard dans le monde réel.
Depuis son introduction en mars en tant que concurrent du ChatGPT d'OpenAI, Bard a fait l'objet d'une série de mises à jour, telles que la capacité d'analyse de photos et la génération de réponses multilingues. Bien qu'impressionnante, cette mise à jour n'a pas fait autant de bruit que la sortie du "GPT-4V" d'OpenAI, qui ajoute la reconnaissance d'images au modèle GPT-4.
Le mois dernier, Google a ambitieusement relié Bard à plusieurs de ses outils de travail tels que Gmail, Maps, Docs et YouTube, en lançant les intégrations à partir du 19 septembre. D'après les discussions sur Discord, d'autres problèmes sont apparus au fur et à mesure que Bard s'imbriquait dans les offres de Google.
Des plaintes ont été déposées au sujet de l'outil d'IA qui génère des faits infondés et fournit des conseils potentiellement dangereux, ce qui a conduit Google à introduire un bouton de recherche sur Bard le jour même où il a annoncé des extensions d'applications.
Cette fonction permet aux utilisateurs de valider les réponses générées par l'IA de Bard par rapport aux résultats du moteur de recherche de Google, afin d'en améliorer la fiabilité.
D'autres controverses ont vu le jour concernant les personnes qui ont participé à la formation de Bard, à savoir des milliers de sous-traitants mal rémunérés. Google n'est pas le seul dans ce cas - cette situation est typique de l'industrie de l'intelligence artificielle, qui s'appuie sur la technologie de l'information et de la communication. l'assistance étendue de tiers des sociétés d'étiquetage des données.
L'IA générative a remis en question La domination de Google dans le domaine de la recherche avec des outils d'OpenAI et de diverses startups, ce qui pourrait nuire à la recherche et, par extension, aux recettes publicitaires.
Le groupe Discord a également été le théâtre de discussions entre utilisateurs sur divers sujets sensibles liés à Google. Un membre aurait été expulsé du groupe après avoir soulevé des questions d'éthique concernant Projet NimbusUn contrat de $1,2 milliard d'euros a été conclu avec Google et Amazon pour fournir des outils d'intelligence artificielle à l'armée israélienne.
Malgré la diversité des points de vue sur le coût des ressources et la précision de Bard, le chef de produit, M. Warkentin, a confirmé les efforts déployés pour "réduire les hallucinations et augmenter la précision des faits", notant des améliorations notables depuis la sortie de Bard.
Mais Rabiej a rappelé aux utilisateurs que, comme tous les LLM, Bard manque d'une véritable compréhension des textes qu'il traite, soulignant sa nature générative.
Bard pourrait ne pas rester longtemps le produit phare de Google en matière d'intelligence artificielle. appelé projet Gemini brassage. Toutefois, il n'y a pas encore eu beaucoup d'éléments concrets à ce sujet.