Biden-administrationen forventes at afsløre en omfattende AI-bekendtgørelse mandag den 30. oktober.
Ifølge en kilde tæt på VentureBeater den over 100 sider lang, hvilket gør den til et omfattende stykke AI-regulering. Kilden sagde, at det er den længste ordre, han nogensinde har set.
Bekendtgørelsen vil omhandle kritiske områder som AI-sikkerhed og styrkelse af den amerikanske AI-industri og sikre, at avancerede AI-modeller gennemgår grundige vurderinger, før de anvendes af føderale medarbejdere.
Ud over at beskytte sig mod AI's risici har den amerikanske regering tidligere udtrykt dets ønske om at konsolidere sin verdensførende tech-industri. Ordren forventes også at sænke adgangsbarriererne til USA for højtuddannede arbejdere og fremme et robust indenlandsk tech-økosystem.
Udgivelsen af ordren sker på et strategisk godt tidspunkt, nemlig to dage før Topmøde om AI-sikkerhed i Storbritannienhvor regeringsledere, topchefer fra Silicon Valley og civilsamfundsgrupper vil mødes for at diskutere de potentielle risici ved kunstig intelligens for samfundet.
Bekendtgørelsen viser den amerikanske regerings proaktive holdning til AI-regulering og er i tråd med den globale indsats for at håndtere teknologiens udfordringer og usikkerheder. Storbritannien har for nylig intensiverede diskussioner omkring AI's eksistentielle risici med det formål at inspirere til handling forud for deres topmøde.
Føderale regeringsorganer, herunder forsvarsministeriet, energiministeriet og efterretningstjenester, vil få mandat til at foretage vurderinger af indarbejdelsen af AI i deres operationer, med vægt på forbedringen af det nationale cyberforsvar.
Derudover forventes bekendtgørelsen at bygge videre på frivillige forpligtelser fra store teknologivirksomheder, herunder OpenAI, Adobe, Anthropic, Inflection, Meta, Google og Nvidia, for at udvikle teknologi, der identificerer AI-genererede billeder og for at dele sikkerhedsdata med regeringen og den akademiske verden.
National Institute of Standards and Technology (NIST) forventes at lede "red teaming"-vurderingerne af regeringsindkøbte store sprogmodeller (LLM'er) som en del af bekendtgørelsens evalueringsproces. Red teaming er den proces, hvor man forsøger at stressteste, hacke og jailbreake digitale systemer, herunder maskinlæringsmodeller.
USA er nu klar til at løfte sløret for den første omfattende AI-lovgivning i store dele af den vestlige verden, mens EU's AI Act stadig er på vej gennem sin... Langvarig proces med juridisk opstigning.