Australië overweegt verplichte vangrails voor AI met "hoog risico

17 januari 2024

Australië overweegt om de ontwikkeling en toepassing van AI in "risicovolle" omgevingen aan banden te leggen naar aanleiding van zorgen die tijdens openbare raadplegingen zijn geuit.

Minister van Industrie en Wetenschap Ed Husic zei: "Australiërs begrijpen de waarde van kunstmatige intelligentie, maar ze willen de risico's geïdentificeerd en aangepakt zien."

De maatregelen die de Australische regering voorstelde, werden gepubliceerd in een verslag getiteld: "Raadpleging over veilige en verantwoorde AI in Australië".

In het rapport staat: "De overheid zal verplichte waarborgen overwegen voor degenen die AI-systemen ontwikkelen of inzetten in legitieme omgevingen met een hoog risico. Dit zal helpen om ervoor te zorgen dat AI-systemen veilig zijn wanneer schade moeilijk of onmogelijk terug te draaien is."

Zij erkende dat er verschillende opvattingen bestonden over wat "risicovolle" settings zijn, maar bood de lijst aan die in de EU AI-wet als voorbeelden:

  • bepaalde kritieke infrastructuur (water, gas, elektriciteit)
  • medische hulpmiddelen
  • systemen die de toegang tot onderwijsinstellingen bepalen of mensen aanwerven
  • systemen die worden gebruikt bij rechtshandhaving, grenscontrole en rechtsbedeling
  • biometrische identificatie
  • emotieherkenning.

Daarnaast werden voorbeelden gegeven van gevallen waarin AI zou kunnen worden gebruikt om de kans op recidive van een persoon te voorspellen, iemands geschiktheid voor een baan te beoordelen of een zelfrijdende auto te besturen.

Als een AI glitch onomkeerbare schade kan veroorzaken, dan stelt het voor dat er verplichte wetten komen die bepalen hoe de technologie wordt ontwikkeld en ingezet.

Enkele van de voorgestelde beschermingsmaatregelen zijn digitale labels of watermerken om AI-gegenereerde inhoud te identificeren, 'human-in-the-loop'-vereisten en zelfs een regelrecht verbod op AI-toepassingen die onaanvaardbare risico's met zich meebrengen.

Voorgestelde voorbeelden van onaanvaardbare toepassingen waren onder andere gedragsmanipulatie, sociaal scoren en real-time gezichtsherkenning op grote schaal.

Voorlopig vrijwillige regulering

Het kan nog wel even duren voordat de voorgestelde verplichte vereisten in wetgeving worden omgezet. Ondertussen zei Husic in een interview met ABC News: "We willen meteen vrijwillige veiligheidsnormen opstellen en daaraan werken, zodat de industrie begrijpt wat ze moeten leveren en hoe ze dat moeten doen.

In hun inzendingen spraken OpenAI en Microsoft zich uit voor vrijwillige regelgeving in plaats van overhaaste invoering van verplichte regelgeving.

Hoogleraar kunstmatige intelligentie aan de Universiteit van New South Wales Toby Walsh was kritisch over deze aanpak en het gebrek aan concrete stappen in het tussentijdse rapport.

Professor Walsh zei: "Het is een beetje weinig en het is een beetje laat. Er is niet veel concreets, en veel ervan is in termen van vrijwillige overeenkomsten met de industrie, en zoals we in het verleden hebben gezien, is het misschien niet het beste idee om hen hun eigen huiswerk te laten nakijken."

In het rapport staat dat "de toepassing van AI en automatisering tegen 2030 $170 miljard tot $600 miljard per jaar extra kan toevoegen aan het BBP van Australië".

In een land dat bekend staat om zijn hoge mate van regulering, kan het moeilijk zijn om deze cijfers te halen als Australië AI-ontwikkelaars opzadelt met te veel administratieve rompslomp.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Eugene van der Watt

Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden