L'année dernière, le premier sommet mondial sur la sécurité de l'IA s'est tenu dans le parc historique de Bletchley, au Royaume-Uni, et a attiré l'attention du monde entier.
Toutefois, à l'approche du deuxième sommet de suivi, prévu pour les 21 et 22 mai et organisé essentiellement de manière virtuelle par le Royaume-Uni et la Corée du Sud, certains éléments semblent indiquer qu'un retour à la réalité pourrait avoir lieu.
Les organisateurs du sommet espèrent poursuivre l'élan créé à Bletchley Park, où plus de 25 représentants de gouvernements ont signé une déclaration commune s'engageant à collaborer à la surveillance de l'IA.
Bien que personne ne s'attende à ce que cet événement provisoire de moindre envergure atteigne ou dépasse la grandeur de l'Année européenne de l'environnement. premier sommetLes participants clés, y compris DeepMind et Mozilla, ne participent pas à ce rassemblement.
Bien que l'UE n'ait pas exclu sa présence à l'événement, un porte-parole a confirmé que ses principaux régulateurs technologiques, dont Margrethe Vestager, Thierry Breton et Vera Jourova, n'y participeraient pas.
Le département d'État américain a confirmé qu'il enverrait des représentants à la réunion de Séoul, mais n'a pas précisé qui.
Par ailleurs, les gouvernements canadien, brésilien et néerlandais ont annoncé qu'ils ne participeraient pas à l'événement.
Le gouvernement français aurait également reporté le sommet annuel de la sécurité à plus grande échelle jusqu'en 2025, mais cette information n'a pas encore été confirmée.
Les défis de l'IA sont devenus plus confus
Il est assez simple d'affirmer que nous devons protéger l'humanité contre les événements mondiaux et les phénomènes d'extinction, étant donné que la technologie n'en est qu'à ses débuts et que le risque réel reste faible.
D'autre part, une action significative sur les contrefaçons profondes, les dommages environnementaux et les droits d'auteur nécessite un travail réel qui va au-delà de l'apparat et de la rhétorique.
Alors que nous avons assisté à l'émergence d'un ensemble de lois et de réglementations visant à contrôler l'IA, notamment le EU AI Actmais de nombreuses questions essentielles restent en suspens.
Comme le dit Francine Bennett, directrice intérimaire de l'Institut Ada Lovelace, a expliqué à ReutersLe discours politique autour de l'IA s'est élargi pour inclure d'autres préoccupations importantes, telles que la concentration du marché et les incidences sur l'environnement.
Le champ d'application plus large de la sécurité de l'IA exige des délibérations approfondies et hautement subjectives, ce qui n'est peut-être pas naturel dans ce cadre virtuel.
Par ailleurs, les tensions géopolitiques entre les puissances occidentales et la Chine continuent d'être une épine dans le pied des négociations.
Alors que la US et la Chine ont discuté de la sécurité de l'IA en réunions privéesd'autres événements majeurs tels que le Forum économique mondial a été le témoin d'interactions glaciales entre les deux puissances, y compris un débrayage de la part de la US délégation lors d'une conférence en Chine.
Ce sommet virtuel sur la sécurité, qui durera six mois, se penchera probablement sur les progrès modérés réalisés jusqu'à présent, mais une action concrète forte sur les questions clés reste à venir.