Het ministerie van Handel van de VS heeft een beleid uitgevaardigd dat open modellen goedkeurt, als teken van de standpunten van de regering Biden-Harris over de controversiële kwestie.
Voorstanders van gesloten modellen zoals OpenAI en Google praten over de risico's van open modellen, terwijl anderen zoals Meta zich inzetten voor varianten van open-source AI.
Het DOC-rapport geschreven door de afdeling van de National Telecommunications and Information Administration (NTIA) omarmt "openheid in kunstmatige intelligentie (AI) en roept tegelijkertijd op tot actieve bewaking van risico's in krachtige AI-modellen".
De argumenten tegen het openlijk vrijgeven van modellen wijzen over het algemeen op het risico van tweeërlei gebruik, namelijk dat slechte actoren de modellen naar hun hand kunnen zetten. Het beleid erkent het risico van tweeërlei gebruik, maar zegt dat de voordelen groter zijn dan de risico's.
"De regering Biden-Harris haalt alles uit de kast om de belofte van AI te maximaliseren en tegelijkertijd de risico's te minimaliseren", aldus de Amerikaanse minister van Handel Gina Raimondo.
"Het rapport van vandaag biedt een routekaart voor verantwoorde AI-innovatie en Amerikaans leiderschap door openheid te omarmen en aanbevelingen te doen over hoe de Amerikaanse overheid zich kan voorbereiden op en aanpassen aan potentiële uitdagingen die voor ons liggen."
Volgens het rapport moet de Amerikaanse overheid actief toezicht houden op mogelijke nieuwe risico's, maar moet ze de beschikbaarheid van modellen met open weging niet beperken.
Open gewichten openen deuren
Iedereen kan Meta's nieuwste Llama 3.1 405B model en de gewichten. Hoewel de trainingsgegevens niet beschikbaar zijn gesteld, geeft het hebben van de gewichten gebruikers veel meer opties dan ze zouden hebben met GPT-4o of Claude 3.5 Sonnet bijvoorbeeld.
Toegang tot de gewichten stelt onderzoekers en ontwikkelaars in staat om een beter beeld te krijgen van wat er onder de motorkap gebeurt en om vertekeningen, fouten of onverwacht gedrag binnen het model te identificeren en te corrigeren.
Het maakt het ook veel gemakkelijker voor gebruikers om de modellen te verfijnen voor specifieke gebruikssituaties, goed of slecht.
Het rapport merkt op dat "de toegankelijkheid van open gewichten de drempel om modellen te verfijnen aanzienlijk verlaagt, zowel voor nuttige als voor schadelijke doeleinden. Kwaadwillende actoren kunnen beschermingsmechanismen van open modellen verwijderen via fijnafstemming en vervolgens het model vrijelijk verspreiden, waardoor uiteindelijk de waarde van mitigatietechnieken wordt beperkt."
De risico's en voordelen van open AI-modellen die in het rapport naar voren komen, zijn onder andere:
- Openbare veiligheid
- Geopolitieke overwegingen
- Maatschappelijke kwesties
- Concurrentie, innovatie en onderzoek
Het rapport erkent openhartig de risico's op elk van deze gebieden, maar zegt dat de voordelen groter zijn als de risico's worden beheerst.
Met een gesloten model zoals GPT-4o moeten we er allemaal op vertrouwen dat OpenAI goed werk levert met zijn afstemmingsinspanningen en geen potentiële risico's verbergt. Met een open model kan elke onderzoeker zwakke plekken in de veiligheid en beveiliging van een model identificeren of een audit door een derde partij uitvoeren om er zeker van te zijn dat het model voldoet aan de regelgeving.
In het rapport staat dat de "beschikbaarheid van modelgewichten landen die zorgen baren in staat kan stellen robuustere geavanceerde AI-ecosystemen te ontwikkelen ... en de doelstellingen van de Europese Unie kan ondermijnen. Amerikaanse chipcontroles."
Een pluspunt is echter dat het beschikbaar stellen van modelgewichten "de samenwerking met bondgenoten kan versterken en nieuwe relaties met ontwikkelingspartners kan verdiepen".
De Amerikaanse overheid is duidelijk gewonnen voor het idee van open AI-modellen, zelfs terwijl ze federale en staatsregels opstelt om de risico's van de technologie te verminderen. Als de Trump-Vance team de volgende verkiezingen wint, zullen we waarschijnlijk blijvende steun voor open AI zien, maar met nog minder regelgeving.
Open-gewicht modellen kunnen geweldig zijn voor innovatie, maar als opkomende risico's toezichthouders onopgemerkt laten, zal er geen geest van AI terug in de fles kunnen worden gestopt.