GitHub, Hugging Face, Creative Commons og flere andre teknologiorganisasjoner har sendt ut et åpent brev til EUs beslutningstakere, der de oppfordrer dem til å revurdere enkelte elementer i AI-loven.
Den brev sier at det foreslåtte regelverket risikerer å hindre utviklingen av AI-modeller med åpen kildekode, og kommer med fem anbefalinger for å motvirke dette.
Et av de viktigste stridspunktene er behandlingen av enkelte åpen kildekode-prosjekter som om de var kommersielle eller utplasserte AI-systemer. Dette kan by på problemer for individuelle utviklere og ideelle forskere.
AI-loven fikk et overveldende flertall på 499 stemmer for, 28 mot og 93 avholdende i Europaparlamentet i juni.
Den vil imidlertid først bli vedtatt når den har oppnådd konsensus i EU-rådet, som representerer de 27 medlemslandene.
Her er et sammendrag av brevets fem anbefalinger:
- Definisjon av "AI-komponenter": I brevet anbefales det at EUs AI-lov inneholder en presis definisjon av "AI-komponenter", et begrep som ofte brukes i loven, og det understrekes at det er nødvendig å avgrense hva dette er.
- Avklaring om utvikling av åpen kildekode: Det bør tydeliggjøres at samarbeid om utvikling av AI med åpen kildekode, for eksempel ved å gjøre AI-komponenter fritt tilgjengelige i offentlige arkiver, ikke er underlagt loven. Dette for å skille mellom åpen kildekode og kommersielle aktiviteter.
- Støtte for et "AI-kontor": GitHub og andre støtter EUs intensjon om å opprette et AI-kontor.
- Effektive unntak fra loven: Brevet tar til orde for unntak for aktiviteter knyttet til testing av AI-systemer i den virkelige verden for å forstå ytelsen deres og identifisere svakheter.
- Proporsjonale krav til "grunnmodeller": Til slutt etterlyser brevet en nyansert tilnærming til differensieringen mellom ulike modeller. Det argumenteres for at loven bør ta hensyn til de unike egenskapene til modeller med åpen kildekode.
GitHub og andre signatarer håper loven vil balansere risikoreduksjon og fremme AI-innovasjon, men anbefalingene deres vil bidra til å støtte open source-fellesskapet, som spiller en viktig rolle i bransjen.
Regulering kan ramme åpen kildekode-AI uforholdsmessig hardt
Store teknologiselskaper som Microsoft, Google og Meta er dyktige til å håndtere compliance og regelverk.
Det betyr ikke at de ikke av og til gjør alvorlige feil, men de har muskler og ressurser til å overholde AI-regelverket.
Faktisk har de store teknologibedriftene for det meste vært svært positive til regulering og proaktive når det gjelder selvregulering. Google, Anthropic, OpenAI og Microsoft dannet Frontier Model Forum denne uken, initiere samarbeid mellom konkurrenter.
Open source-miljøet mener at regulering vil ramme dem hardere, og potensielt til og med kriminalisere former for offentlig AI-FoU.
Dette er til fordel for big tech, ettersom åpen kildekode-AI kanskje er deres største konkurrent. Det forklarer hvorfor de er så villige til å samarbeide.