Australia vurderer obligatoriske rekkverk for "høyrisiko" AI

17. januar 2024

Australia vurderer å innføre obligatoriske beskyttelsestiltak for utvikling og bruk av kunstig intelligens i "høyrisikosituasjoner" som svar på bekymringer som har kommet frem under offentlige høringer.

Industri- og vitenskapsminister Ed Husic sa: "Australierne forstår verdien av kunstig intelligens, men de ønsker å se at risikoene identifiseres og håndteres."

Tiltakene som den australske regjeringen foreslo å iverksette, ble publisert i en rapport med tittelen "Safe and responsible AI in Australia consultation".

I rapporten står det: "Regjeringen vil vurdere obligatoriske sikkerhetstiltak for dem som utvikler eller tar i bruk AI-systemer i legitime høyrisikosituasjoner. Dette vil bidra til å sikre at AI-systemer er trygge når skader er vanskelige eller umulige å reversere."

Den erkjente at det var ulike syn på hva som utgjorde "høyrisiko-miljøer", men presenterte listen som ble vedtatt i EUs AI-lov som eksempler:

  • visse typer kritisk infrastruktur (vann, gass, elektrisitet)
  • medisinsk utstyr
  • systemer som bestemmer tilgang til utdanningsinstitusjoner eller rekruttering av personer
  • systemer som brukes i rettshåndhevelse, grensekontroll og rettspleie
  • biometrisk identifikasjon
  • følelsesgjenkjenning.

I tillegg ble det gitt eksempler på hvordan kunstig intelligens kan brukes til å forutsi sannsynligheten for at en person begår nye lovbrudd, bedømme en persons egnethet for en jobb eller styre et selvkjørende kjøretøy.

Hvis en AI-feil kan forårsake uopprettelig skade, foreslår den at det bør innføres obligatoriske lover som definerer hvordan teknologien utvikles og tas i bruk.

Noen av de foreslåtte beskyttelsestiltakene omfatter digitale merkelapper eller vannmerker for å identifisere AI-generert innhold, krav om "human-in-the-loop" og til og med direkte forbud mot bruk av AI som utgjør en uakseptabel risiko.

Foreslåtte eksempler på uakseptable bruksområder var atferdsmanipulering, sosial scoring og omfattende ansiktsgjenkjenning i sanntid.

Frivillig regulering inntil videre

Det kan ta noe tid før de foreslåtte obligatoriske kravene blir gjort til lov. I mellomtiden, i et intervju med ABC Nyheter, sa Husic: "Vi ønsker å utforme frivillige sikkerhetsstandarder med en gang og være i stand til å jobbe med det og få industrien til å forstå hva de skal levere og hvordan de skal levere det."

OpenAI og Microsoft gikk i sine innlegg inn for frivillige reguleringer i stedet for å forhaste seg med å innføre obligatoriske reguleringer.

Toby Walsh, professor i kunstig intelligens ved University of New South Wales, var kritisk til denne tilnærmingen og mangelen på konkrete tiltak i delrapporten.

Professor Walsh sa: "Det er litt lite, og det er litt sent. Det er ikke mye konkret, og mye av det er i form av frivillige avtaler med industrien, og som vi har sett tidligere, er det kanskje ikke den beste ideen å få dem til å merke sine egne hjemmelekser."

I rapporten heter det at "bruk av kunstig intelligens og automatisering kan øke Australias BNP med ytterligere $170 milliarder til $600 milliarder i året innen 2030".

I et land som er notorisk sterkt regulert, kan det bli vanskelig å oppnå disse tallene hvis Australia pålegger AI-utviklere for mye byråkrati.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser