Un conseiller du groupe de travail britannique sur l'IA met en garde contre la menace que représente l'IA pour l'humanité

8 juin 2023

Conseiller du groupe de travail sur l'IA
Matt Clifford, conseiller du groupe de travail sur l'IA, met en garde contre les risques que l'IA pourrait poser au cours des deux prochaines années.

Le développement rapide d'outils basés sur l'IA inquiète de nombreux experts en technologie. L'un d'entre eux, Matt Clifford, conseiller du groupe de travail britannique sur l'IA, a averti que l'IA pourrait devenir une superpuissance capable de "tuer de nombreux humains" d'ici deux ans environ. M. Clifford travaille à la mise en place d'un groupe de travail gouvernemental sur l'IA pour le compte du Premier ministre britannique, Rishi Sunak.  

Dans un entretien Lors de l'émission TalkTV, Matt Clifford a parlé de la croissance exponentielle des systèmes alimentés par l'intelligence artificielle et des risques potentiels qu'ils pourraient poser s'ils ne sont pas réglementés à temps. M. Clifford, qui préside l'Agence gouvernementale pour la recherche avancée et l'invention (ARIA), a averti que les systèmes actuels deviennent de plus en plus puissants "à un rythme de plus en plus rapide".

Différents types de risques liés à l'IA

Il a insisté sur la nécessité de réglementer l'utilisation de l'intelligence artificielle à tous les niveaux, affirmant que si les autorités ne s'efforcent pas de mettre en place des règles de sécurité, les systèmes d'intelligence artificielle deviendront beaucoup plus puissants dans deux ans.

"Nous avons deux ans pour mettre en place un cadre qui rendra le contrôle et la régulation de ces très grands modèles beaucoup plus possibles qu'ils ne le sont aujourd'hui". Clifford a déclaré dans une interview.

Il a également ajouté que l'IA présente différents types de risques, dont certains peuvent être des problèmes à court terme et à long terme.

Selon le conseiller du groupe de travail sur l'IA, l'IA a le potentiel de "créer des recettes pour des armes biologiques" ainsi que de provoquer de graves cyberattaques qui pourraient constituer une menace pour l'humanité. L'IA pourrait ainsi devenir trop puissante et entraîner la mort de nombreux êtres humains.

L'entretien a eu lieu peu après la publication d'une lettre ouverte sur les risques potentiels de l'IA. Les lettre ouverte a été publié par le Centre pour la sécurité de l'IA, et de nombreux experts connus de l'IA ont apposé leur signature sur le document. L'un d'entre eux est le PDG d'OpenAI, Sam Altman, ainsi que Geoffrey Hinton, connu comme le "parrain de l'IA".

"Ils parlent de ce qui se passera une fois que nous aurons créé une nouvelle espèce, une sorte d'intelligence supérieure à l'homme", a déclaré M. Clifford à propos d'une lettre ouverte qui affirme que la réglementation et la réduction des risques liés à l'IA "devraient être une priorité mondiale au même titre que d'autres risques à l'échelle de la société tels que les pandémies et les guerres nucléaires".

L'IA peut encore être utilisée à bon escient

Selon M. Clifford, l'IA peut encore être utilisée à bon escient, à condition que les gouvernements à l'échelle mondiale trouvent un moyen de la réglementer. 

"Si tout se passe bien, on peut imaginer que l'IA guérisse des maladies, rende l'économie plus productive et nous aide à atteindre une économie neutre en carbone", a déclaré M. Clifford.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Danica Simic

Danica est une data scientist avec plus de 7 ans d'expérience dans l'IA et le Big Data. Elle a produit du contenu spécialisé pour des entreprises telles que ValueWalk et IntegrateAI et a rédigé des documents de recherche pour l'université Singidunum.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation