Le sommet britannique sur la sécurité de l'IA, prévu les 1er et 2 novembre 2023, a dévoilé le programme complet de la première journée.
Dans le but de définir des approches pour développer une IA sûre, l'événement promet une assemblée de gouvernements internationaux, de grandes entreprises d'IA et d'experts en recherche de premier plan.
En particulier, les représentants de la Chine sont attendus malgré l'escalade des tensions géopolitiques avec les États-Unis.
Le gouvernement britannique a a publié le programme complet de la première journéeLes détails sur la deuxième journée sont encore à venir.
Jour 1 : Naviguer dans les frontières de l'IA
Le premier jour est consacré aux tâches liées aux risques et à la sécurité des "modèles d'avant-garde", un terme qui en est venu à définir des modèles fondamentaux sophistiqués comme le GPT-4.
Séance plénière d'ouverture
Le sommet débute par une séance plénière d'ouverture au cours de laquelle le secrétaire d'État britannique au ministère de la science, de l'innovation et de la technologie prononce un discours, suivi par des contributions de pays à la pointe du développement de l'IA et de la Frontier AI Taskforce (groupe de travail sur l'IA) du Royaume-Uni.
Tables rondes
Une série de sessions en petits groupes permettra un dialogue pluridisciplinaire sur diverses questions critiques :
- Risques pour la sécurité mondiale liés à l'utilisation abusive de l'IA d'avant-garde: Évaluer les problèmes de sécurité liés aux modèles d'IA récents et futurs, en se concentrant sur la biosécurité et la cybersécurité.
- Des avancées imprévisibles dans les capacités d'IA d'avant-garde: Discussion des implications des progrès rapides des capacités de l'IA, de l'avènement de nouvelles méthodes de prévision et de la trajectoire future du développement de l'IA, y compris les considérations relatives aux logiciels libres.
- Perte potentielle de contrôle sur l'IA avancée: Envisager des scénarios dans lesquels l'IA dépasse la surveillance humaine, les risques associés, et explorer des outils de prévention et de contrôle.
- Intégration sociétale de l'IA d'avant-garde: Aborder les défis liés au rôle de l'IA dans les élections, les préjugés, la criminalité, la sécurité en ligne et l'inégalité mondiale, tout en discutant des contre-mesures existantes.
Améliorer la sécurité de l'IA frontalière
Une autre série de tables rondes sera consacrée à l'amélioration de la sécurité de l'IA :
- Mise à l'échelle responsable chez les développeurs d'IA: Débattre des meilleures pratiques en matière de développement responsable des capacités, d'évaluation des risques, de gouvernance et de responsabilité dans le cadre du développement de l'IA d'avant-garde.
- Le rôle des décideurs nationaux dans l'IA: Discuter des mesures politiques pour gérer les risques liés à l'IA, y compris la surveillance, la responsabilité, l'octroi de licences et la gestion des modèles d'IA à source ouverte.
- Collaboration internationale en matière d'IA: Identifier les domaines dans lesquels la coopération mondiale est essentielle pour atténuer les risques et saisir les opportunités offertes par l'IA d'avant-garde.
- Contribution de la communauté scientifique à la sécurité de l'IA: Évaluer les solutions techniques actuelles pour la sécurité de l'IA, les domaines de recherche urgents et les solutions émergentes.
La journée s'achèvera par une table ronde sur l'exploitation de l'IA pour révolutionner l'éducation des générations futures, suivie d'un discours de clôture du secrétaire d'État britannique.
Jour 2 : Façonner l'avenir de l'IA
Le Premier ministre Rishi Sunak dirigera une assemblée restreinte de représentants gouvernementaux, de chefs d'entreprise et d'experts afin d'intensifier les discussions sur la gestion des risques liés aux technologies émergentes de l'IA.
Lors d'une session parallèle, la secrétaire britannique à la technologie, Michelle Donelan, se réunira à nouveau avec ses homologues internationaux afin de consolider la ligne de conduite discutée lors du sommet.
De grands patrons de l'industrie technologique et des hommes politiques participeront au sommet
Des cadres supérieurs de la Silicon Valley devraient participer au sommet, notamment Sam Altman d'OpenAI, Demis Hassabis de Google Deepmind et Dario Amodei d'Anthropic.
Parmi les autres participants notables attendus au sommet figurent des représentants de xAI d'Elon Musk et les PDG Alex Karp, Aidan Gomez et Emad Mostaque des entreprises d'IA Palantir, Cohere et Stability, respectivement.
En outre, les responsables politiques des géants de la technologie Meta et Microsoft, Sir Nick Clegg et Brad Smith, ainsi que James Manyika de Google, devraient également représenter leurs entreprises respectives.
Pour préparer le sommet, les entreprises participantes ont encouragés à approuver une déclarationque les dirigeants du monde entier devraient signer à cette occasion.
Des négociations impliquant des représentants des États-Unis, de l'Union européenne, des pays du G7 et de la Chine sont en cours pour finaliser la formulation de cette déclaration. On s'attend à ce qu'elle contienne un avertissement sévère sur les "dommages catastrophiques" que l'IA pourrait infliger si elle n'était pas contrôlée.
Les entreprises sont également invitées à divulguer leurs politiques détaillant leurs engagements en faveur d'un "développement et d'un déploiement sûrs de l'IA", ainsi que leur point de vue sur la manière dont l'IA peut "résoudre les problèmes les plus urgents et les plus importants pour l'humanité".
La vice-présidente des États-Unis, Kamala Harris, devrait être présente. Le chancelier allemand Olaf Scholz aurait décliné l'invitation, mais le président français Emmanuel Macron et des représentants de l'Union européenne sont attendus. La Chine est susceptible de participer.
Si le sommet ne devrait pas déboucher directement sur la création d'un nouvel organisme de réglementation de l'IA ou de lois internationales, il se veut une étape cruciale vers de futures réglementations.
Un porte-parole du gouvernement a souligné l'approche collaborative du sommet : "Le sommet sur la sécurité de l'IA réunira un large éventail de participants, dont des gouvernements internationaux, des universitaires, des industriels et des représentants de la société civile, dans le cadre d'une approche collaborative visant à mener une action internationale ciblée et rapide sur le développement sûr et responsable de l'IA".