Australien överväger att införa obligatoriska skyddsräcken för utveckling och användning av AI i "högriskmiljöer" som svar på den oro som uttryckts under offentliga samråd.
Industri- och vetenskapsminister Ed Husic sa: "Australierna förstår värdet av artificiell intelligens, men de vill se att riskerna identifieras och hanteras."
De åtgärder som den australiensiska regeringen föreslog att genomföra offentliggjordes i en rapport med titeln: "Säker och ansvarsfull AI i Australien samråd."
Vi hörde din feedback på vår #RansvarigtAI samråd.#AusGovinterimsvar kommer att bidra till att påverka framtida #AI reglering på ett sätt som gynnar människor, myndigheter och företag i Australien.
Läs mer om detta: https://t.co/K4WTM4EK7m pic.twitter.com/TgsMmrySXw
- Ministeriet för industri, vetenskap och resurser (@IndustryGovAu) 16 januari 2024
I rapporten står det: "Regeringen kommer att överväga obligatoriska skyddsåtgärder för dem som utvecklar eller använder AI-system i legitima högriskmiljöer. Detta kommer att bidra till att säkerställa att AI-system är säkra när skador är svåra eller omöjliga att vända."
Det erkände att det fanns olika åsikter om vad som utgjorde "högriskmiljöer" men erbjöd den lista som antogs i EU:s AI-lag som exempel:
- viss kritisk infrastruktur (vatten, gas, el)
- medicintekniska produkter
- system som bestämmer tillträde till utbildningsinstitutioner eller rekrytering av personer
- system som används vid brottsbekämpning, gränskontroll och rättsskipning
- biometrisk identifiering
- igenkänning av känslor.
Dessutom gavs exempel på hur AI skulle kunna användas för att förutse en persons sannolikhet att återfalla i brott, bedöma en persons lämplighet för ett jobb eller styra ett självkörande fordon.
Om ett AI-fel kan orsaka oåterkalleliga skador föreslås det att det ska finnas tvingande lagar som definierar hur tekniken utvecklas och används.
Några av de föreslagna skyddsvallarna är digitala etiketter eller vattenstämplar för att identifiera AI-genererat innehåll, krav på "human-in-the-loop" och till och med direkta förbud mot AI-användning som innebär oacceptabla risker.
Som exempel på oacceptabla tillämpningar föreslogs beteendemanipulation, social poängsättning och ansiktsigenkänning i realtid i stor skala.
Frivillig reglering tills vidare
Det kan dröja innan de föreslagna obligatoriska kraven omvandlas till lag. Under tiden, i en intervju med ABC News, sa Husic: "Vi vill utforma frivilliga säkerhetsstandarder direkt och kunna arbeta med det och kunna få industrin att förstå vad de ska leverera och hur de ska leverera det."
OpenAI och Microsoft förespråkade i sina inlägg frivilliga regleringar i stället för att skyndsamt införa tvingande sådana.
Toby Walsh, professor i artificiell intelligens vid University of New South Wales, var kritisk till detta synsätt och till bristen på konkreta åtgärder i delrapporten.
Professor Walsh sa: "Det är lite lite och det är lite sent. Det finns inte mycket konkret, och mycket av det är i form av frivilliga överenskommelser med industrin, och som vi har sett tidigare är det kanske inte den bästa idén att låta dem rätta sina egna läxor."
I rapporten konstateras att "AI och automatisering kan öka Australiens BNP med ytterligare $170 miljarder till $600 miljarder per år fram till 2030".
I ett land som är notoriskt hårt reglerat kan det bli svårt att nå dessa siffror om Australien lägger för mycket byråkrati på AI-utvecklarna.