Les entreprises s'empressent de tirer parti de l'IA générative, mais les enquêtes révèlent que cela comporte des risques.
D'après des études récentes, les données de BlackBerryun nombre impressionnant de 75% d'entreprises interdisent ou envisagent de restreindre l'utilisation d'outils tels que ChatGPT et d'autres plateformes d'IA générative.
L'étude indique que 61% des organisations qui envisagent une telle mesure pensent que les restrictions pourraient être permanentes ou de longue durée.
2 000 décideurs informatiques des États-Unis, du Royaume-Uni, du Canada, de l'Allemagne, de la France, des Pays-Bas, du Japon et de l'Australie y ont participé.
Les dirigeants ont fait part de leurs préoccupations concernant la sécurité des données, la protection de la vie privée et l'atteinte potentielle à la réputation de la marque.
Une nette majorité (80%) estime qu'il est de la prérogative d'une organisation d'autoriser ou de refuser les applications utilisées par les employés dans le cadre de leur travail, et 74% pensent également que des interdictions totales pourraient être excessives.
Il y a également eu des résultats positifs. Environ 55% reconnaissent les gains d'efficacité de l'IA, 52% croient en son pouvoir de favoriser l'innovation et 51% pensent qu'elle peut accroître la créativité. Un autre 81% a vu son utilisation potentielle dans le renforcement des défenses de cybersécurité.
Le gouvernement américain a récemment annoncé une le défi de la cybersécurité pour concevoir des applications d'IA destinées à renforcer la sécurité nationale.
Shishir Singh, directeur de la technologie chez BlackBerry, a déclaré à propos de ces résultats : "Interdire les applications d'IA générative sur le lieu de travail peut signifier qu'une multitude d'avantages commerciaux potentiels sont réduits à néant."
Il a ajouté : "Au fur et à mesure que les plateformes mûrissent et que les réglementations entrent en vigueur, la flexibilité pourrait être introduite dans les politiques organisationnelles. La clé sera de disposer des bons outils pour la visibilité, le contrôle et la gestion des applications utilisées sur le lieu de travail."
Une étude de Gartner met en évidence des risques similaires liés à l'IA pour les entreprises.
Un récent Enquête Gartner auprès de 249 cadres supérieurs a révélé des résultats similaires à ceux de l'étude de BlackBerry, soulignant les préoccupations relatives à la sécurité, à la propriété intellectuelle et à la dépendance excessive à l'égard des technologies tierces.
- Viabilité des tiers (67%): Les dirigeants ont fait part de leurs inquiétudes quant à la stabilité ou à la fiabilité des partenaires ou fournisseurs externes en matière d'IA. Si ces tiers rencontrent des difficultés, cela pourrait avoir des effets en cascade sur les organisations qui en dépendent.
- Disponibilité de l'IA générative de masse (66%): La prolifération des outils d'IA générative suscite des inquiétudes concernant la propriété intellectuelle, la protection de la vie privée et la cybersécurité.
- Incertitude en matière de planification financière (62%) : Les organisations peuvent être confrontées à des défis dans leurs processus de planification financière en raison de l'évolution des conditions économiques, des changements réglementaires ou de la volatilité du marché.
- Risque de concentration de nuages (62%): Alors que les entreprises s'appuient de plus en plus sur des solutions basées sur l'informatique en nuage, le risque d'être trop dépendant d'un seul fournisseur d'informatique en nuage est de plus en plus grand.
- Tensions commerciales avec la Chine (56%): En cours les tensions commerciales avec la Chine l'allusion aux perturbations potentielles du commerce international, qui affectent les chaînes d'approvisionnement, les tarifs douaniers et la stabilité du marché.
Ran Xu, directeur de recherche pour la pratique du risque et de l'audit de Gartner, a souligné que l'IA générative a connu une forte augmentation dans son enquête trimestrielle sur le risque.
Xu a déclaré : "Cela reflète à la fois la croissance rapide de la sensibilisation du public et de l'utilisation des outils d'IA générative, ainsi que l'étendue des cas d'utilisation potentiels et, par conséquent, les risques potentiels que ces outils engendrent."
Les outils d'IA sont encore principalement développés par la même poignée d'entreprises, ce qui signifie que les entreprises qui construisent des flux de travail autour d'eux sont vulnérables aux fluctuations de performance dans un marché peu concurrentiel. C'est ce qui ressort des récents débats sur la qualité de la production du GPT-4, qui a aurait refusé au cours des derniers mois.
OpenAI a admis que les performances avaient baissé pour certaines tâches, mais n'a pas encore révélé les détails techniques de cette baisse.
Les fluctuations des performances de l'IA sont une mauvaise nouvelle pour les entreprises qui construisent des flux de travail critiques autour de modèles qu'elles ne contrôlent pas.