London, Vereinigtes Königreich - Premierminister Rishi Sunak sagte letzte Woche auf der London Tech Week, dass OpenAI, Google DeepMind und Anthropic versprochen haben, "frühen oder vorrangigen Zugang" zu ihren KI-Modellen zu gewähren.
Damit soll die Forschung auf dem Gebiet der künstlichen Intelligenz mit Schwerpunkt auf Bewertung und Sicherheit unterstützt werden. Diese Erklärung folgt auf die Der Plan der britischen Regierung ein weltweites Treffen zur KI-Sicherheit einzuberufen.
Premierminister Sunak drückte sein Engagement für die KI-Sicherheitsforschung aus und sagte: "Wir werden hier in Großbritannien Spitzenforschung im Bereich der [KI-]Sicherheit betreiben." Wir investieren mehr Geld in die KI-Sicherheit als jede andere Regierung, einschließlich 100 Millionen Pfund für unser Experten-Task-Team".
Er fuhr fort: "Wir arbeiten mit den Pionierlabors Google DeepMind, OpenAI und Anthropic zusammen. Und ich freue mich, dass sie zugestimmt haben, uns aus Forschungs- und Sicherheitsgründen frühzeitig oder vorrangig Zugang zu Modellen zu gewähren, um uns dabei zu helfen, bessere Bewertungen zu erstellen und das Potenzial und die Gefahren dieser Systeme zu verstehen."
Premierminister Sunak stellte eine Verbindung zu den COP-Klimakonferenzen her, um das Vereinigte Königreich als weltweites Zentrum für die Regulierung der KI-Sicherheit zu fördern. "So wie wir uns im Rahmen der COP zusammenschließen, um den Klimawandel zu bekämpfen, wird das Vereinigte Königreich noch in diesem Jahr das erste Gipfeltreffen zur weltweiten KI-Sicherheit ausrichten", sagte er zu dem bevorstehenden Treffen. "Ich möchte das Vereinigte Königreich nicht nur zum geistigen, sondern auch zum geografischen Zentrum der weltweiten KI-Sicherheitsregulierung machen.
Die aktuelle Betonung der KI-Sicherheit spiegelt einen grundlegenden Gesinnungswandel der Regierung wider. In der Vergangenheit bevorzugte die britische Regierung eine innovationsfreundliche Haltung und flexible Grundsätze für die KI-Governance und lehnte die Notwendigkeit technischer Vorschriften oder Überwachungsbehörden ab.
Angesichts wachsender Sorgen über die möglichen Gefahren und die Kontrolle der KI hat die Downing Street ihren Plan jedoch schnell neu bewertet.
Das Versprechen der KI-Firmen, einen verbesserten Zugang zu ihren Modellen zu gewähren, bietet dem Vereinigten Königreich zwar die Chance, bei der Überprüfung und Prüfung von KI-Ansätzen führend zu sein, doch besteht die Gefahr, dass die Industrie Einfluss auf die KI-Sicherheitsmaßnahmen des Landes nimmt.
KI-Giganten könnten in der Lage sein, künftige KI-Vorschriften für ihre eigenen Unternehmen zu gestalten, indem sie die Debatte über die KI-Sicherheitsforschung prägen und die Priorisierung von Themen beeinflussen.
Um verlässliche und strenge Ergebnisse zu erzielen, müssen die KI-Sicherheitsprogramme der britischen Regierung unabhängige Forscher, zivilgesellschaftliche Organisationen und die am stärksten von der Automatisierung bedrohten Menschen einbeziehen.
Ethiker haben betont, dass die durch die KI-Technologie geschaffenen Ungerechtigkeiten in der realen Welt angegangen werden müssen, darunter Vorurteile, Diskriminierung, Verletzung der Privatsphäre, Verletzung des geistigen Eigentums und Ausbeutung der Umwelt.
Wenn das Vereinigte Königreich mit seiner KI-Sicherheitsagenda vorankommt, wird die Kombination aus Industriebeteiligung und unabhängiger Aufsicht entscheidend für die Entwicklung eines verantwortungsvollen und integrativen KI-Ökosystems sein, das vor möglichen Gefahren schützt und gleichzeitig die Vorteile der künstlichen Intelligenz maximiert.