Australien overvejer obligatoriske rækværk for "højrisiko"-AI

17. januar 2024

Australien overvejer at indføre obligatoriske sikkerhedsforanstaltninger for udvikling og anvendelse af kunstig intelligens i "højrisikomiljøer" som svar på de bekymringer, der er kommet frem under de offentlige høringer.

Industri- og videnskabsminister Ed Husic sagde: "Australierne forstår værdien af kunstig intelligens, men de ønsker at se risiciene identificeret og håndteret."

De foranstaltninger, som den australske regering foreslog at gennemføre, blev offentliggjort i en Rapport med titlen: "Høring om sikker og ansvarlig AI i Australien".

I rapporten står der: "Regeringen vil overveje obligatoriske sikkerhedsforanstaltninger for dem, der udvikler eller anvender AI-systemer i legitime højrisikomiljøer. Det vil hjælpe med at sikre, at AI-systemer er sikre, når skader er vanskelige eller umulige at vende."

Den anerkendte, at der var forskellige opfattelser af, hvad der udgjorde "højrisikomiljøer", men tilbød den liste, der blev vedtaget i EU's lov om kunstig intelligens som eksempler:

  • Visse former for kritisk infrastruktur (vand, gas, elektricitet)
  • Medicinsk udstyr
  • systemer, der bestemmer adgangen til uddannelsesinstitutioner eller rekrutterer folk
  • systemer, der bruges til retshåndhævelse, grænsekontrol og retspleje
  • biometrisk identifikation
  • genkendelse af følelser.

Derudover gav den eksempler på, hvordan AI kunne bruges til at forudsige en persons sandsynlighed for at begå ny kriminalitet, bedømme en persons egnethed til et job eller styre et selvkørende køretøj.

Hvis en AI-fejl kan forårsage uoprettelig skade, foreslås det, at der skal være obligatoriske love, der definerer, hvordan teknologien udvikles og anvendes.

Nogle af de foreslåede beskyttelsesforanstaltninger omfatter digitale mærker eller vandmærker til at identificere AI-genereret indhold, krav om "mennesker i kredsløbet" og endda direkte forbud mod AI-anvendelser, der udgør uacceptable risici.

Foreslåede eksempler på uacceptable anvendelser omfattede adfærdsmæssig manipulation, social scoring og omfattende ansigtsgenkendelse i realtid.

Frivillig regulering indtil videre

Der kan gå noget tid, før de foreslåede obligatoriske krav bliver skrevet ind i loven. I mellemtiden sagde Husic i et interview med ABC News: "Vi ønsker at udforme frivillige sikkerhedsstandarder med det samme og være i stand til at arbejde på det og få industrien til at forstå, hvad de skal levere, og hvordan de skal levere det."

I deres indlæg støttede OpenAI og Microsoft frivillige regler i stedet for at skynde sig at implementere obligatoriske regler.

Professor i kunstig intelligens ved University of New South Wales Toby Walsh var kritisk over for denne tilgang og manglen på konkrete skridt i den foreløbige rapport.

Professor Walsh sagde: "Det er lidt lidt, og det er lidt sent. Der er ikke meget konkret, og meget af det er i form af frivillige aftaler med industrien, og som vi har set tidligere, er det måske ikke den bedste idé at få dem til at markere deres egne lektier."

I rapporten står der, at "indførelse af AI og automatisering kan tilføje yderligere $170 milliarder til $600 milliarder om året til Australiens BNP inden 2030."

I et land, der er notorisk stærkt reguleret, kan det være svært at nå de tal, hvis Australien belaster AI-udviklere med for meget bureaukrati.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser