Australië overweegt om de ontwikkeling en toepassing van AI in "risicovolle" omgevingen aan banden te leggen naar aanleiding van zorgen die tijdens openbare raadplegingen zijn geuit.
Minister van Industrie en Wetenschap Ed Husic zei: "Australiërs begrijpen de waarde van kunstmatige intelligentie, maar ze willen de risico's geïdentificeerd en aangepakt zien."
De maatregelen die de Australische regering voorstelde, werden gepubliceerd in een verslag getiteld: "Raadpleging over veilige en verantwoorde AI in Australië".
We hebben jullie feedback gehoord over onze #RverantwoordelijkeAI overleg.#AusGovDe tussentijdse reactie zal helpen toekomstige #AI regelgeving op een manier die mensen, de overheid en het bedrijfsleven in Australië ten goede komt.
Lees meer: https://t.co/K4WTM4EK7m pic.twitter.com/TgsMmrySXw
- Ministerie van Industrie, Wetenschap en Hulpbronnen (@IndustryGovAu) 16 januari 2024
In het rapport staat: "De overheid zal verplichte waarborgen overwegen voor degenen die AI-systemen ontwikkelen of inzetten in legitieme omgevingen met een hoog risico. Dit zal helpen om ervoor te zorgen dat AI-systemen veilig zijn wanneer schade moeilijk of onmogelijk terug te draaien is."
Zij erkende dat er verschillende opvattingen bestonden over wat "risicovolle" settings zijn, maar bood de lijst aan die in de EU AI-wet als voorbeelden:
- bepaalde kritieke infrastructuur (water, gas, elektriciteit)
- medische hulpmiddelen
- systemen die de toegang tot onderwijsinstellingen bepalen of mensen aanwerven
- systemen die worden gebruikt bij rechtshandhaving, grenscontrole en rechtsbedeling
- biometrische identificatie
- emotieherkenning.
Daarnaast werden voorbeelden gegeven van gevallen waarin AI zou kunnen worden gebruikt om de kans op recidive van een persoon te voorspellen, iemands geschiktheid voor een baan te beoordelen of een zelfrijdende auto te besturen.
Als een AI glitch onomkeerbare schade kan veroorzaken, dan stelt het voor dat er verplichte wetten komen die bepalen hoe de technologie wordt ontwikkeld en ingezet.
Enkele van de voorgestelde beschermingsmaatregelen zijn digitale labels of watermerken om AI-gegenereerde inhoud te identificeren, 'human-in-the-loop'-vereisten en zelfs een regelrecht verbod op AI-toepassingen die onaanvaardbare risico's met zich meebrengen.
Voorgestelde voorbeelden van onaanvaardbare toepassingen waren onder andere gedragsmanipulatie, sociaal scoren en real-time gezichtsherkenning op grote schaal.
Voorlopig vrijwillige regulering
Het kan nog wel even duren voordat de voorgestelde verplichte vereisten in wetgeving worden omgezet. Ondertussen zei Husic in een interview met ABC News: "We willen meteen vrijwillige veiligheidsnormen opstellen en daaraan werken, zodat de industrie begrijpt wat ze moeten leveren en hoe ze dat moeten doen.
In hun inzendingen spraken OpenAI en Microsoft zich uit voor vrijwillige regelgeving in plaats van overhaaste invoering van verplichte regelgeving.
Hoogleraar kunstmatige intelligentie aan de Universiteit van New South Wales Toby Walsh was kritisch over deze aanpak en het gebrek aan concrete stappen in het tussentijdse rapport.
Professor Walsh zei: "Het is een beetje weinig en het is een beetje laat. Er is niet veel concreets, en veel ervan is in termen van vrijwillige overeenkomsten met de industrie, en zoals we in het verleden hebben gezien, is het misschien niet het beste idee om hen hun eigen huiswerk te laten nakijken."
In het rapport staat dat "de toepassing van AI en automatisering tegen 2030 $170 miljard tot $600 miljard per jaar extra kan toevoegen aan het BBP van Australië".
In een land dat bekend staat om zijn hoge mate van regulering, kan het moeilijk zijn om deze cijfers te halen als Australië AI-ontwikkelaars opzadelt met te veel administratieve rompslomp.