Australien överväger obligatoriska skyddsräcken för AI med "hög risk"

17 januari 2024

Australien överväger att införa obligatoriska skyddsräcken för utveckling och användning av AI i "högriskmiljöer" som svar på den oro som uttryckts under offentliga samråd.

Industri- och vetenskapsminister Ed Husic sa: "Australierna förstår värdet av artificiell intelligens, men de vill se att riskerna identifieras och hanteras."

De åtgärder som den australiensiska regeringen föreslog att genomföra offentliggjordes i en rapport med titeln: "Säker och ansvarsfull AI i Australien samråd."

I rapporten står det: "Regeringen kommer att överväga obligatoriska skyddsåtgärder för dem som utvecklar eller använder AI-system i legitima högriskmiljöer. Detta kommer att bidra till att säkerställa att AI-system är säkra när skador är svåra eller omöjliga att vända."

Det erkände att det fanns olika åsikter om vad som utgjorde "högriskmiljöer" men erbjöd den lista som antogs i EU:s AI-lag som exempel:

  • viss kritisk infrastruktur (vatten, gas, el)
  • medicintekniska produkter
  • system som bestämmer tillträde till utbildningsinstitutioner eller rekrytering av personer
  • system som används vid brottsbekämpning, gränskontroll och rättsskipning
  • biometrisk identifiering
  • igenkänning av känslor.

Dessutom gavs exempel på hur AI skulle kunna användas för att förutse en persons sannolikhet att återfalla i brott, bedöma en persons lämplighet för ett jobb eller styra ett självkörande fordon.

Om ett AI-fel kan orsaka oåterkalleliga skador föreslås det att det ska finnas tvingande lagar som definierar hur tekniken utvecklas och används.

Några av de föreslagna skyddsvallarna är digitala etiketter eller vattenstämplar för att identifiera AI-genererat innehåll, krav på "human-in-the-loop" och till och med direkta förbud mot AI-användning som innebär oacceptabla risker.

Som exempel på oacceptabla tillämpningar föreslogs beteendemanipulation, social poängsättning och ansiktsigenkänning i realtid i stor skala.

Frivillig reglering tills vidare

Det kan dröja innan de föreslagna obligatoriska kraven omvandlas till lag. Under tiden, i en intervju med ABC News, sa Husic: "Vi vill utforma frivilliga säkerhetsstandarder direkt och kunna arbeta med det och kunna få industrin att förstå vad de ska leverera och hur de ska leverera det."

OpenAI och Microsoft förespråkade i sina inlägg frivilliga regleringar i stället för att skyndsamt införa tvingande sådana.

Toby Walsh, professor i artificiell intelligens vid University of New South Wales, var kritisk till detta synsätt och till bristen på konkreta åtgärder i delrapporten.

Professor Walsh sa: "Det är lite lite och det är lite sent. Det finns inte mycket konkret, och mycket av det är i form av frivilliga överenskommelser med industrin, och som vi har sett tidigare är det kanske inte den bästa idén att låta dem rätta sina egna läxor."

I rapporten konstateras att "AI och automatisering kan öka Australiens BNP med ytterligare $170 miljarder till $600 miljarder per år fram till 2030".

I ett land som är notoriskt hårt reglerat kan det bli svårt att nå dessa siffror om Australien lägger för mycket byråkrati på AI-utvecklarna.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar