Le "Frontier Safety Framework" de Google atténue les risques "graves" liés à l'IA
Google a publié la première version de son "Frontier Safety Framework", un ensemble de protocoles visant à lutter contre les risques graves que pourraient présenter les puissants modèles d'IA du futur. Ce cadre définit des niveaux de capacité critiques (CCL), qui sont des seuils à partir desquels les modèles peuvent présenter un risque accru sans mesures d'atténuation supplémentaires. Il prévoit ensuite différents niveaux d'atténuation pour les modèles qui ne respectent pas ces CCL. Les mesures d'atténuation se répartissent en deux catégories principales : Atténuations de sécurité - Empêcher l'exposition des poids d'un modèle qui atteint les CCL Atténuations de déploiement - Empêcher l'utilisation abusive d'un modèle déployé qui atteint les CCL Les Atténuations de déploiement - Empêcher l'utilisation abusive d'un modèle déployé qui atteint les CCL Les...