GitHub, Hugging Face, Creative Commons och flera andra teknikorganisationer har utfärdat ett öppet brev till EU:s beslutsfattare och uppmanat dem att omvärdera vissa delar av AI-lagen.
Den brev säger att de föreslagna reglerna riskerar att hindra utvecklingen av AI-modeller med öppen källkod och ger 5 rekommendationer för att mildra detta.
En av de främsta tvistefrågorna är behandlingen av vissa projekt med öppen källkod som om de vore kommersiella eller driftsatta AI-system. Detta kan innebära svårigheter för enskilda utvecklare och ideella forskare.
AI-akten fick en överväldigande majoritet med 499 röster för, 28 röster emot och 93 nedlagda röster i Europaparlamentet i juni.
Den kommer dock inte att träda i kraft förrän den har godkänts av EU:s ministerråd, som representerar de 27 medlemsländerna.
Här följer en sammanfattning av de 5 rekommendationerna i brevet:
- Definition av "AI-komponenter": I brevet rekommenderas att EU:s AI-lag ska innehålla en exakt definition av "AI-komponenter", en term som ofta används i lagen, och behovet av att definiera vad dessa är betonas.
- Förtydligande om utveckling av öppen källkod: Samarbetsbaserad utveckling av AI med öppen källkod, till exempel genom att göra AI-komponenterna fritt tillgängliga i offentliga arkiv, bör klargöras som något som inte omfattas av lagen. Detta syftar till att skilja öppen källkod från kommersiell verksamhet.
- Stöd för ett "AI-kontor": GitHub och andra stöder EU:s avsikt att inrätta ett AI-kontor.
- Effektiva undantag från lagen: I brevet förespråkas undantag för aktiviteter som avser testning av AI-system i verkligheten för att förstå deras prestanda och identifiera svagheter.
- Proportionella krav för "foundation models": Slutligen efterlyser brevet ett nyanserat tillvägagångssätt för att skilja mellan olika modeller. Det hävdas att lagen bör ta hänsyn till de unika egenskaperna hos modeller med öppen källkod.
GitHub och andra undertecknare hoppas att lagen kommer att balansera riskreducering och främja AI-innovation, men deras rekommendationer skulle hjälpa till att stödja open source-communityn, som spelar en viktig roll i branschen.
Reglering kan slå oproportionerligt hårt mot AI med öppen källkod
Stora teknikföretag som Microsoft, Google och Meta är duktiga på att hantera efterlevnad och regler.
Det betyder inte att de inte ibland gör allvarliga fel, men de har musklerna och resurserna för att följa AI-reglerna.
Faktum är att big tech för det mesta har varit mycket uppmuntrande till reglering och proaktiv när det gäller självreglering. Google, Anthropic, OpenAI och Microsoft bildade Frontier Model Forum denna vecka, initiera samarbete mellan konkurrenter.
Open source-branschen tror att regleringen kommer att drabba dem hårdare och eventuellt till och med kriminalisera olika former av offentlig AI-FoU.
Detta gynnar big tech, eftersom AI med öppen källkod kanske är deras största konkurrent. Det skulle i så fall förklara varför de är så villiga att samarbeta.