Googles Frontier Safety Framework mindsker "alvorlige" AI-risici
Google har offentliggjort den første version af sin Frontier Safety Framework, et sæt protokoller, der har til formål at imødegå alvorlige risici, som fremtidens kraftfulde AI-modeller kan udgøre. Rammen definerer Critical Capability Levels (CCL'er), som er tærskler, hvor modeller kan udgøre en øget risiko uden yderligere afhjælpning. Derefter opstilles forskellige niveauer for afhjælpning af modeller, der overskrider disse CCL'er. Afhjælpningerne falder i to hovedkategorier: Sikkerhedsforanstaltninger - Forhindring af eksponering af vægtene i en model, der når CCL'erne Implementeringsforanstaltninger - Forhindring af misbrug af en implementeret model, der når CCL'erne...