Forscher schließen sich einem offenen Brief an, in dem sie sich für unabhängige KI-Bewertungen aussprechen

März 7, 2024

Über 100 führende KI-Experten forderten in einem offenen Brief, dass Unternehmen, die generative KI-Technologien entwickeln, wie OpenAI, Meta und andere, ihre Türen für unabhängige Tests öffnen. 

Ihre Botschaft ist klar: Die Geschäftsbedingungen der KI-Entwickler schränken unabhängige Forschungsbemühungen zur Sicherheit von KI-Werkzeugen ein. 

Zu den Mitunterzeichnern gehören führende Experten wie Percy Liang aus Stanford, Pulitzer-Preisträgerin Julia Angwin, Renée DiResta vom Stanford Internet Observatory, Mozilla Fellow Deb Raji, Marietje Schaake, ehemaliges Mitglied des Europäischen Parlaments, und Suresh Venkatasubramanian von der Brown University.

Die Forscher argumentieren, dass die Lehren aus der Ära der sozialen Medien, in der unabhängige Forschung oft an den Rand gedrängt wurde, nicht wiederholt werden sollten.

Um dieses Risiko zu bekämpfen, fordern sie, dass OpenAI, Meta, Anthropic, Google, Midjourney und andere einen rechtlich und technisch sicheren Raum schaffen, in dem Forscher KI-Produkte evaluieren können, ohne befürchten zu müssen, verklagt oder verboten zu werden.

In dem Schreiben heißt es: "Während die Nutzungsbedingungen der Unternehmen eine böswillige Nutzung verhindern, bieten sie auch keine Ausnahmen für unabhängige, gutgläubige Recherchen, so dass Forscher der Gefahr ausgesetzt sind, dass ihr Konto gesperrt oder sogar rechtlich belangt wird.

KI-Tools unterliegen strengen Nutzungsrichtlinien, um zu verhindern, dass sie so manipuliert werden, dass ihre Schutzmaßnahmen umgangen werden. Zum Beispiel hat OpenAI vor kurzem die Ermittlungsbemühungen der New York Times als "Hacken" bezeichnet. und Meta drohten, Lizenzen wegen Streitigkeiten über geistiges Eigentum zurückzuziehen. 

Eine aktuelle Studie sondiert MidJourney zahlreiche Verstöße gegen das Urheberrecht aufzudecken, die gegen die Allgemeinen Geschäftsbedingungen des Unternehmens verstoßen hätten.

Das Problem besteht darin, dass KI-Tools im Grunde unberechenbar sind und daher davon abhängen, dass die Menschen sie auf eine bestimmte Art und Weise nutzen, um "sicher" zu bleiben. 

Die gleiche Politik macht es den Forschern jedoch schwer, Modelle zu untersuchen und zu verstehen. 

Der Brief, veröffentlicht auf der Website des MITmacht zwei Vorbringen:

1. "Erstens würde ein rechtlich sicherer Hafen gutgläubige, unabhängige KI-Sicherheitsforschung entschädigen, sofern sie im Einklang mit den etablierten Regeln für die Offenlegung von Schwachstellen durchgeführt wird.

2. "Zweitens sollten sich die Unternehmen zu einem gerechteren Zugang verpflichten, indem sie unabhängige Gutachter einsetzen, um die Bewertungsanträge der Forscher zu moderieren, was die regelkonforme Sicherheitsforschung vor kontraproduktiven Kontosperrungen schützen und die Bedenken der Unternehmen, die ihre eigenen Gutachter auswählen, mindern würde.

Das Schreiben enthält auch einen von einigen Unterzeichnern mitverfassten Vorschlag, der Änderungen in den Nutzungsbedingungen der Unternehmen vorschlägt, um der akademischen Forschung und der Sicherheitsforschung entgegenzukommen.

Dies trägt zu einem breiteren Konsens über die mit generativer KI verbundenen Risiken bei, einschließlich Voreingenommenheit, Urheberrechtsverletzungen und der Schaffung von nicht einvernehmlichen intimen Bildern. 

Indem sie sich für einen "sicheren Hafen" für eine unabhängige Bewertung einsetzen, setzen sich diese Experten für das öffentliche Interesse ein und wollen ein Ökosystem schaffen, in dem KI-Technologien verantwortungsvoll entwickelt und eingesetzt werden können, wobei das Wohl der Gesellschaft im Vordergrund steht.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen