GitHub udgiver politikpapir med rådgivning om EU's AI-lov

30. juli 2023

GitHub AI

GitHub, Hugging Face, Creative Commons og flere andre tech-organisationer har udsendt et åbent brev til EU's beslutningstagere, hvor de opfordrer dem til at revurdere nogle af elementerne i AI-loven. 

Den brev siger, at de foreslåede regler risikerer at hæmme udviklingen af open source AI-modeller og kommer med 5 anbefalinger til at afbøde det. 

Et af de primære stridspunkter er behandlingen af nogle open source-projekter, som om de var kommercielle eller implementerede AI-systemer. Det kan give problemer for individuelle udviklere og non-profit-forskere.

AI-loven fik et overvældende flertal på 499 stemmer for, 28 imod og 93 hverken for eller imod i Europa-Parlamentet. i juni

Den vil dog først blive vedtaget, når der er enighed om den i EU-Rådet, som repræsenterer de 27 medlemslande.

Her er et sammendrag af brevets 5 anbefalinger:

  • Definition af "AI-komponenter": Brevet anbefaler, at EU's AI-lov indeholder en præcis definition af "AI-komponenter", et udtryk, der ofte bruges i loven, og understreger behovet for at afgrænse, hvad disse er. 
  • Afklaring om open source-udvikling: Den fælles udvikling af open source AI, som f.eks. at gøre AI-komponenterne frit tilgængelige i offentlige arkiver, bør præciseres som ikke underlagt loven. Dette søger at skelne mellem open source og kommercielle aktiviteter.
  • Støtte til et "AI-kontor": GitHub og andre støtter EU's hensigt om at oprette et AI-kontor. 
  • Effektive undtagelser til loven: Brevet slår til lyd for undtagelser for aktiviteter i forbindelse med test af AI-systemer i den virkelige verden for at forstå deres ydeevne og identificere svagheder.
  • Proportionelle krav til "grundmodeller": Endelig opfordrer brevet til en nuanceret tilgang til at skelne mellem forskellige modeller. Det hævdes, at loven bør tage højde for open source-modellernes unikke karakteristika. 

GitHub og andre underskrivere håber, at loven vil afbalancere risikobegrænsning og fremme AI-innovation, men deres anbefalinger vil hjælpe med at støtte open source-samfundet, som spiller en vigtig rolle i branchen. 

Regulering kan ramme open source AI uforholdsmæssigt hårdt

Store teknologivirksomheder som Microsoft, Google og Meta er dygtige til at håndtere compliance og regler. 

Det betyder ikke, at de ikke indimellem begår alvorlige fejl, men de har musklerne og ressourcerne til at overholde AI-reglerne. 

Faktisk har big tech for det meste været meget positivt indstillet over for regulering og proaktiv i forhold til selvregulering. Google, Anthropic, OpenAI og Microsoft har dannet Frontier Model Forum. denne ugeog indlede et samarbejde mellem konkurrenter. 

Open source-samfundet mener, at regulering vil ramme dem hårdere og potentielt endda kriminalisere former for offentlig AI-F&U. 

Dette er til fordel for big tech, da open source AI måske er deres største konkurrent. Det ville i hvert fald forklare, hvorfor de er så villige til at arbejde sammen.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser