Australien erwägt als Reaktion auf die bei öffentlichen Konsultationen geäußerten Bedenken, verbindliche Leitplanken für die Entwicklung und den Einsatz von KI in "Hochrisikosituationen" einzuführen.
Der Minister für Industrie und Wissenschaft, Ed Husic, sagte: "Die Australier verstehen den Wert der künstlichen Intelligenz, aber sie wollen, dass die Risiken erkannt und angegangen werden."
Die von der australischen Regierung vorgeschlagenen Maßnahmen wurden in einem Bericht mit dem Titel: "Konsultation über sichere und verantwortungsvolle KI in Australien".
Wir haben Ihr Feedback zu unserer #ResponsibleAI Beratung.#AusGovDie vorläufige Antwort der Kommission wird dazu beitragen, künftige #AI Regulierung in einer Weise, die den Menschen, der Regierung und der Wirtschaft in Australien zugute kommt.
Lesen Sie mehr: https://t.co/K4WTM4EK7m pic.twitter.com/TgsMmrySXw
- Ministerium für Industrie, Wissenschaft und Ressourcen (@IndustryGovAu) 16. Januar 2024
In dem Bericht heißt es: "Die Regierung wird verbindliche Schutzmaßnahmen für diejenigen in Betracht ziehen, die KI-Systeme in legitimen, risikoreichen Situationen entwickeln oder einsetzen. Dies wird dazu beitragen, dass KI-Systeme sicher sind, wenn Schäden nur schwer oder gar nicht rückgängig zu machen sind.
Sie räumte ein, dass es unterschiedliche Auffassungen darüber gibt, was "Hochrisiko"-Einrichtungen sind, schlug aber die in der Mitteilung angenommene Liste vor EU-KI-Gesetz als Beispiele:
- bestimmte kritische Infrastrukturen (Wasser, Gas, Strom)
- medizinische Geräte
- Systeme, die den Zugang zu Bildungseinrichtungen oder die Einstellung von Personen regeln
- Systeme, die bei der Strafverfolgung, der Grenzkontrolle und der Justizverwaltung eingesetzt werden
- biometrische Identifizierung
- Erkennung von Emotionen.
Darüber hinaus wurden Beispiele genannt, bei denen KI eingesetzt werden könnte, um die Wahrscheinlichkeit einer erneuten Straftat vorherzusagen, die Eignung einer Person für einen Arbeitsplatz zu beurteilen oder ein selbstfahrendes Fahrzeug zu steuern.
Wenn ein KI-Fehler irreversible Schäden verursachen könnte, sollten verbindliche Gesetze erlassen werden, die festlegen, wie die Technologie entwickelt und eingesetzt wird.
Einige der vorgeschlagenen Leitplanken umfassen digitale Kennzeichnungen oder Wasserzeichen zur Identifizierung von KI-generierten Inhalten, Anforderungen an die menschliche Beteiligung und sogar ein völliges Verbot von KI-Anwendungen, die unannehmbare Risiken darstellen.
Zu den vorgeschlagenen Beispielen für inakzeptable Anwendungen gehörten Verhaltensmanipulationen, soziales Scoring und großflächige Gesichtserkennung in Echtzeit.
Vorerst freiwillige Regelung
Es könnte einige Zeit dauern, bis die vorgeschlagenen verbindlichen Anforderungen in ein Gesetz gegossen werden. In der Zwischenzeit sagte Husic in einem Interview mit ABC News: "Wir wollen sofort freiwillige Sicherheitsstandards entwerfen und daran arbeiten, damit die Industrie versteht, was sie leisten sollen und wie sie es leisten sollen."
In ihren Beiträgen sprachen sich OpenAI und Microsoft für freiwillige Regelungen aus, anstatt übereilt verbindliche Regelungen einzuführen.
Toby Walsh, Professor für künstliche Intelligenz an der Universität von New South Wales, kritisierte diesen Ansatz und das Fehlen konkreter Schritte im Zwischenbericht.
Professor Walsh sagte: "Es ist ein bisschen wenig, und es ist ein bisschen spät. Es gibt nicht viel Konkretes, und vieles davon betrifft freiwillige Vereinbarungen mit der Industrie, und wie wir in der Vergangenheit gesehen haben, ist es vielleicht nicht die beste Idee, sie ihre eigenen Hausaufgaben machen zu lassen."
In dem Bericht heißt es, dass "die Einführung von KI und Automatisierung das australische BIP bis 2030 um $170 bis $600 Milliarden pro Jahr steigern könnte."
In einem Land, das notorisch stark reguliert ist, könnte es schwierig werden, diese Zahlen zu erreichen, wenn Australien die KI-Entwickler mit zu viel Bürokratie belastet.