Biden-administrationen väntas presentera en omfattande AI-order på måndag den 30 oktober.
Enligt en källa nära VentureBeatär det inställt på att vara över 100 sidor långt, vilket gör det till en omfattande AI-reglering. Källan sa att det är den längsta ordern han någonsin har sett.
Den verkställande ordern kommer att behandla kritiska områden som AI-säkerhet och att stärka den amerikanska AI-industrin genom att säkerställa att avancerade AI-modeller genomgår noggranna utvärderingar innan de används av federala anställda.
Förutom att skydda sig mot AI:s risker har den amerikanska regeringen tidigare uttryckt USA:s önskan att konsolidera sin världsledande teknikindustri. Ordern förväntas också sänka inträdeshindren till USA för högkvalificerade arbetstagare och främja ett robust inhemskt ekosystem för teknik.
Ordern är strategiskt tidsbestämd och kommer att publiceras två dagar före Toppmöte om AI-säkerhet i Storbritanniendär regeringsledare, toppchefer från Silicon Valley och grupper från det civila samhället kommer att träffas för att diskutera de potentiella riskerna med AI för samhället.
Den verkställande ordern visar den amerikanska regeringens proaktiva inställning till AI-reglering och ligger i linje med globala ansträngningar för att hantera teknikens utmaningar och osäkerhetsfaktorer. Storbritannien har nyligen upptrappade diskussioner kring AI:s existentiella risker, i syfte att inspirera till handling inför deras toppmöte.
Federala myndigheter, inklusive försvarsdepartementet, energidepartementet och underrättelsetjänster, kommer att få i uppdrag att genomföra utvärderingar av hur AI kan integreras i deras verksamhet, med tonvikt på att förbättra det nationella cyberförsvaret.
Dessutom förväntas den verkställande ordern bygga vidare på frivilliga åtaganden från stora teknikföretag, bland annat OpenAI, Adobe, Anthropic, Inflection, Meta, Google och Nvidia, för att utveckla teknik som identifierar AI-genererade bilder och för att dela säkerhetsdata med myndigheter och den akademiska världen.
National Institute of Standards and Technology (NIST) förväntas leda "red teaming"-utvärderingarna av statligt inköpta stora språkmodeller (LLM) som en del av orderns utvärderingsprocess. Red teaming är en process där man försöker stresstesta, hacka och jailbreaka digitala system, inklusive maskininlärningsmodeller.
USA är nu redo att presentera den första omfattande AI-lagstiftningen i stora delar av västvärlden, medan EU:s AI Act fortfarande är på väg genom sin långdragen process av juridisk uppstigning.