GitHub lanserer et policydokument med råd om EUs AI Act

30. juli 2023

GitHub AI

GitHub, Hugging Face, Creative Commons og flere andre teknologiorganisasjoner har sendt ut et åpent brev til EUs beslutningstakere, der de oppfordrer dem til å revurdere enkelte elementer i AI-loven. 

Den brev sier at det foreslåtte regelverket risikerer å hindre utviklingen av AI-modeller med åpen kildekode, og kommer med fem anbefalinger for å motvirke dette. 

Et av de viktigste stridspunktene er behandlingen av enkelte åpen kildekode-prosjekter som om de var kommersielle eller utplasserte AI-systemer. Dette kan by på problemer for individuelle utviklere og ideelle forskere.

AI-loven fikk et overveldende flertall på 499 stemmer for, 28 mot og 93 avholdende i Europaparlamentet i juni

Den vil imidlertid først bli vedtatt når den har oppnådd konsensus i EU-rådet, som representerer de 27 medlemslandene.

Her er et sammendrag av brevets fem anbefalinger:

  • Definisjon av "AI-komponenter": I brevet anbefales det at EUs AI-lov inneholder en presis definisjon av "AI-komponenter", et begrep som ofte brukes i loven, og det understrekes at det er nødvendig å avgrense hva dette er. 
  • Avklaring om utvikling av åpen kildekode: Det bør tydeliggjøres at samarbeid om utvikling av AI med åpen kildekode, for eksempel ved å gjøre AI-komponenter fritt tilgjengelige i offentlige arkiver, ikke er underlagt loven. Dette for å skille mellom åpen kildekode og kommersielle aktiviteter.
  • Støtte for et "AI-kontor": GitHub og andre støtter EUs intensjon om å opprette et AI-kontor. 
  • Effektive unntak fra loven: Brevet tar til orde for unntak for aktiviteter knyttet til testing av AI-systemer i den virkelige verden for å forstå ytelsen deres og identifisere svakheter.
  • Proporsjonale krav til "grunnmodeller": Til slutt etterlyser brevet en nyansert tilnærming til differensieringen mellom ulike modeller. Det argumenteres for at loven bør ta hensyn til de unike egenskapene til modeller med åpen kildekode. 

GitHub og andre signatarer håper loven vil balansere risikoreduksjon og fremme AI-innovasjon, men anbefalingene deres vil bidra til å støtte open source-fellesskapet, som spiller en viktig rolle i bransjen. 

Regulering kan ramme åpen kildekode-AI uforholdsmessig hardt

Store teknologiselskaper som Microsoft, Google og Meta er dyktige til å håndtere compliance og regelverk. 

Det betyr ikke at de ikke av og til gjør alvorlige feil, men de har muskler og ressurser til å overholde AI-regelverket. 

Faktisk har de store teknologibedriftene for det meste vært svært positive til regulering og proaktive når det gjelder selvregulering. Google, Anthropic, OpenAI og Microsoft dannet Frontier Model Forum denne uken, initiere samarbeid mellom konkurrenter. 

Open source-miljøet mener at regulering vil ramme dem hardere, og potensielt til og med kriminalisere former for offentlig AI-FoU. 

Dette er til fordel for big tech, ettersom åpen kildekode-AI kanskje er deres største konkurrent. Det forklarer hvorfor de er så villige til å samarbeide.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser