Verwacht wordt dat de regering Biden op maandag 30 oktober een uitgebreid uitvoerend bevel inzake AI zal onthullen.
Volgens een bron dicht bij VentureBeatHet wordt meer dan 100 pagina's lang, waardoor het een uitgebreid stuk AI-regelgeving wordt. De bron zei dat het de langste order is die hij ooit heeft gezien.
Het uitvoeringsbevel zal kritieke gebieden aanpakken, zoals AI-veiligheid en het versterken van de Amerikaanse AI-industrie, door ervoor te zorgen dat geavanceerde AI-modellen grondige beoordelingen ondergaan voordat ze worden ingezet door federale werknemers.
Naast bescherming tegen de risico's van AI heeft de Amerikaanse overheid eerder geuit haar wens om haar toonaangevende technologische industrie te consolideren. De order zal naar verwachting ook de toegangsdrempels tot de VS verlagen voor hoogopgeleide werknemers en zo een robuust binnenlands tech-ecosysteem bevorderen.
De vrijgave van het bevel is strategisch getimed, namelijk twee dagen voor de AI-veiligheidstop in Groot-Brittanniëwaar regeringsleiders, topmanagers uit Silicon Valley en maatschappelijke groeperingen samenkomen om de potentiële risico's van AI voor de samenleving te bespreken.
Het uitvoeringsbevel toont de proactieve houding van de Amerikaanse overheid op het gebied van AI-regulering en sluit aan bij wereldwijde inspanningen om de uitdagingen en onzekerheden van deze technologie aan te pakken. Het VK heeft onlangs opgevoerde discussies over de existentiële risico's van AI, met als doel om actie te inspireren in de aanloop naar hun top.
Federale overheidsinstanties, waaronder het Ministerie van Defensie, het Ministerie van Energie en inlichtingendiensten, krijgen het mandaat om evaluaties uit te voeren over het integreren van AI in hun activiteiten, waarbij de nadruk ligt op het versterken van de nationale cyberdefensie.
Daarnaast zal het uitvoeringsbesluit naar verwachting voortbouwen op vrijwillige verbintenissen van grote techbedrijven, waaronder OpenAI, Adobe, Anthropic, Inflection, Meta, Google en Nvidia, om technologie te ontwikkelen die AI-gegenereerde beelden identificeert en om veiligheidsgegevens te delen met de overheid en de academische wereld.
Het National Institute of Standards and Technology (NIST) zal naar verwachting leiding geven aan de "red teaming" beoordelingen van door de overheid aangeschafte grote taalmodellen (LLM's) als onderdeel van het evaluatieproces van de order. Red teaming is het proces van stresstesten, hacken en jailbreaken van digitale systemen, waaronder modellen voor machinaal leren.
De VS is nu klaar om het eerste uitgebreide stuk AI-wetgeving in een groot deel van de westerse wereld te onthullen, terwijl de AI-wet van de EU nog steeds door zijn langdurig proces van juridische beklimming.