Det amerikanske handelsdepartementet utstedte en policy som støtter åpne modeller, et tegn på Biden-Harris-administrasjonens syn på det omstridte spørsmålet.
Tilhengere av lukkede modeller som OpenAI og Google snakker om risikoen ved åpne modeller, mens andre, som Meta, er opptatt av varianter av AI med åpen kildekode.
DOC-rapporten som er forfattet av National Telecommunications and Information Administration (NTIA), omfavner "åpenhet innen kunstig intelligens (AI), samtidig som den krever aktiv overvåking av risikoer i kraftige AI-modeller".
Argumentene mot å frigi modeller åpent peker generelt på risikoen for dobbeltbruk, det vil si at ondsinnede aktører kan tilpasse modellene til sin egen ondskapsfulle vilje. Retningslinjene erkjenner risikoen for dobbeltbruk, men sier at fordelene oppveier risikoen.
"Biden-Harris-administrasjonen gjør alt den kan for å maksimere mulighetene som ligger i kunstig intelligens, og samtidig minimere risikoen", sier USAs handelsminister Gina Raimondo.
"Dagens rapport gir et veikart for ansvarlig AI-innovasjon og amerikansk lederskap ved å omfavne åpenhet og anbefale hvordan den amerikanske regjeringen kan forberede seg på og tilpasse seg potensielle utfordringer fremover."
Rapporten sier at amerikanske myndigheter aktivt bør overvåke potensielle nye risikoer, men at de bør avstå fra å begrense tilgjengeligheten av modeller med åpen vekt.
Åpne vekter åpner dører
Hvem som helst kan laste ned Metas nyeste Llama 3.1 405B-modell og dens vekter. Selv om treningsdataene ikke er gjort tilgjengelige, gir vektene brukerne mange flere valgmuligheter enn de ville hatt med GPT-4o eller Claude 3.5 Sonett for eksempel.
Tilgang til vektene gir forskere og utviklere bedre oversikt over hva som skjer under panseret, slik at de kan identifisere og korrigere skjevheter, feil eller uventet atferd i modellen.
Det gjør det også mye enklere for brukerne å finjustere modellene for spesifikke brukstilfeller, enten de er gode eller dårlige.
Rapporten peker på at "tilgjengeligheten som åpne vekter gir, senker inngangsbarrieren for å finjustere modeller til både fordelaktige og skadelige formål betydelig. Aktører som driver med ondsinnet virksomhet, kan fjerne sikkerhetstiltak fra åpne modeller ved å finjustere dem, og deretter distribuere modellen fritt, noe som til syvende og sist begrenser verdien av risikoreduserende teknikker."
Rapporten peker blant annet på risikoene og fordelene ved åpne AI-modeller:
- Offentlig sikkerhet
- Geopolitiske betraktninger
- Samfunnsmessige spørsmål
- Konkurranse, innovasjon og forskning
Rapporten erkjenner åpent at det finnes risikoer på hvert av disse områdene, men sier at fordelene oppveier disse hvis risikoen håndteres.
Med en lukket modell som GPT-4o må vi alle stole på at OpenAI gjør en god jobb med tilpasningsarbeidet og ikke skjuler potensielle risikoer. Med en åpen modell kan enhver forsker identifisere sikkerhetshull i en modell eller utføre en tredjepartsrevisjon for å sikre at modellen er i samsvar med regelverket.
Rapporten sier at "tilgjengeligheten av modellvekter kan gjøre det mulig for land som gir grunn til bekymring å utvikle mer robuste avanserte AI-økosystemer ... og undergrave målene for Amerikanske chipkontroller."
På plussiden står imidlertid at det å gjøre modellvekter tilgjengelig "kan styrke samarbeidet med allierte og utdype nye relasjoner med partnere i utvikling".
Amerikanske myndigheter er helt klart positive til ideen om åpne AI-modeller, selv om de innfører føderale og statlige reguleringer for å redusere risikoen knyttet til teknologien. Hvis Trump-Vance vinner neste valg, vil vi sannsynligvis se fortsatt støtte til åpen AI, men med enda mindre regulering.
Åpne vektmodeller kan være bra for innovasjon, men hvis nye risikoer overrasker tilsynsmyndighetene, vil det ikke være mulig å få AI-ånden tilbake i flasken.