Il Frontier Safety Framework di Google attenua i "gravi" rischi dell'intelligenza artificiale
Google ha pubblicato la prima versione del suo Frontier Safety Framework, una serie di protocolli che mirano ad affrontare i gravi rischi che i potenti modelli di AI di frontiera del futuro potrebbero presentare. Il quadro definisce i livelli di capacità critica (CCL), ossia le soglie alle quali i modelli possono rappresentare un rischio elevato senza ulteriori mitigazioni. Quindi stabilisce diversi livelli di mitigazione per affrontare i modelli che violano questi CCL. Le mitigazioni rientrano in due categorie principali: Attenuazione della sicurezza - Prevenzione dell'esposizione dei pesi di un modello che raggiunge i CCL Attenuazione della distribuzione - Prevenzione dell'uso improprio di un modello distribuito che raggiunge i CCL...