Australia vurderer å innføre obligatoriske beskyttelsestiltak for utvikling og bruk av kunstig intelligens i "høyrisikosituasjoner" som svar på bekymringer som har kommet frem under offentlige høringer.
Industri- og vitenskapsminister Ed Husic sa: "Australierne forstår verdien av kunstig intelligens, men de ønsker å se at risikoene identifiseres og håndteres."
Tiltakene som den australske regjeringen foreslo å iverksette, ble publisert i en rapport med tittelen "Safe and responsible AI in Australia consultation".
Vi har hørt dine tilbakemeldinger på vår #RansvarligeAI konsultasjon.#AusGov's midlertidige svar vil bidra til å påvirke fremtidige #AI regulering på en måte som gagner folk, myndigheter og næringsliv i Australia.
Les mer om dette: https://t.co/K4WTM4EK7m pic.twitter.com/TgsMmrySXw
- Departementet for industri, vitenskap og ressurser (@IndustryGovAu) 16. januar 2024
I rapporten står det: "Regjeringen vil vurdere obligatoriske sikkerhetstiltak for dem som utvikler eller tar i bruk AI-systemer i legitime høyrisikosituasjoner. Dette vil bidra til å sikre at AI-systemer er trygge når skader er vanskelige eller umulige å reversere."
Den erkjente at det var ulike syn på hva som utgjorde "høyrisiko-miljøer", men presenterte listen som ble vedtatt i EUs AI-lov som eksempler:
- visse typer kritisk infrastruktur (vann, gass, elektrisitet)
- medisinsk utstyr
- systemer som bestemmer tilgang til utdanningsinstitusjoner eller rekruttering av personer
- systemer som brukes i rettshåndhevelse, grensekontroll og rettspleie
- biometrisk identifikasjon
- følelsesgjenkjenning.
I tillegg ble det gitt eksempler på hvordan kunstig intelligens kan brukes til å forutsi sannsynligheten for at en person begår nye lovbrudd, bedømme en persons egnethet for en jobb eller styre et selvkjørende kjøretøy.
Hvis en AI-feil kan forårsake uopprettelig skade, foreslår den at det bør innføres obligatoriske lover som definerer hvordan teknologien utvikles og tas i bruk.
Noen av de foreslåtte beskyttelsestiltakene omfatter digitale merkelapper eller vannmerker for å identifisere AI-generert innhold, krav om "human-in-the-loop" og til og med direkte forbud mot bruk av AI som utgjør en uakseptabel risiko.
Foreslåtte eksempler på uakseptable bruksområder var atferdsmanipulering, sosial scoring og omfattende ansiktsgjenkjenning i sanntid.
Frivillig regulering inntil videre
Det kan ta noe tid før de foreslåtte obligatoriske kravene blir gjort til lov. I mellomtiden, i et intervju med ABC Nyheter, sa Husic: "Vi ønsker å utforme frivillige sikkerhetsstandarder med en gang og være i stand til å jobbe med det og få industrien til å forstå hva de skal levere og hvordan de skal levere det."
OpenAI og Microsoft gikk i sine innlegg inn for frivillige reguleringer i stedet for å forhaste seg med å innføre obligatoriske reguleringer.
Toby Walsh, professor i kunstig intelligens ved University of New South Wales, var kritisk til denne tilnærmingen og mangelen på konkrete tiltak i delrapporten.
Professor Walsh sa: "Det er litt lite, og det er litt sent. Det er ikke mye konkret, og mye av det er i form av frivillige avtaler med industrien, og som vi har sett tidligere, er det kanskje ikke den beste ideen å få dem til å merke sine egne hjemmelekser."
I rapporten heter det at "bruk av kunstig intelligens og automatisering kan øke Australias BNP med ytterligere $170 milliarder til $600 milliarder i året innen 2030".
I et land som er notorisk sterkt regulert, kan det bli vanskelig å oppnå disse tallene hvis Australia pålegger AI-utviklere for mye byråkrati.