EU-kommissionen har startat sitt projekt för att ta fram den första AI Code of Practice för allmänna ändamål någonsin, och det är nära kopplat till EU:s nyligen antagna AI Act.
Koden syftar till att fastställa tydliga grundregler för AI-modeller som ChatGPT och Google Gemini, särskilt när det gäller saker som transparens, upphovsrätt och hantering av de risker som dessa kraftfulla system utgör.
Vid ett plenarmöte online nyligen samlades nästan 1 000 experter från den akademiska världen, näringslivet och det civila samhället för att hjälpa till att utforma hur denna kod ska se ut.
Processen leds av en grupp bestående av 13 internationella experter, däribland Yoshua Bengio, en av AI:s "gudfäder", som leder den grupp som fokuserar på tekniska risker. Bengio vann Turing Award, som i praktiken är Nobelpriset i databehandling, så hans åsikter väger tungt.
Bengios pessimistiska syn på den Katastrofal risk som kraftfull AI utgör för mänskligheten antyder vilken riktning det team han leder kommer att ta.
Dessa arbetsgrupper kommer att träffas regelbundet för att utarbeta koden, och den slutliga versionen förväntas vara klar i april 2025. När koden är klar kommer den att ha stor inverkan på alla företag som vill distribuera sina AI-produkter i EU.
Den EU AI Act innehåller ett strikt regelverk för AI-leverantörer, men uppförandekoden kommer att vara den praktiska vägledning som företagen måste följa. Koden kommer att behandla frågor som att göra AI-system mer transparenta, se till att de följer upphovsrättslagar och vidta åtgärder för att hantera de risker som är förknippade med AI.
De team som utarbetar koden kommer att behöva balansera hur AI utvecklas på ett ansvarsfullt och säkert sätt, utan att kväva innovation, något som EU redan kritiseras för. De senaste AI-modellerna och funktionerna från Meta, Apple och OpenAI är inte är fullt utbyggda i EU på grund av redan strikta GDPR-sekretesslagar.
Konsekvenserna är enorma. Om koden görs på rätt sätt kan den sätta globala standarder för säkerhet och etik inom AI och ge EU en ledande roll i hur AI regleras. Men om koden är alltför restriktiv eller otydlig kan den bromsa AI-utvecklingen i Europa och driva innovatörer till andra länder.
Även om EU utan tvekan skulle välkomna ett globalt antagande av sin kod är detta osannolikt eftersom Kina och USA verkar vara mer utvecklingsvänliga än riskaverta. Den veto mot Kaliforniens lagförslag SB 1047 om AI-säkerhet är ett bra exempel på de olika synsätten på reglering av AI.
Det är osannolikt att AGI kommer att växa fram ur EU:s teknikindustri, men det är också mindre sannolikt att EU blir nollpunkten för en eventuell AI-driven katastrof.