Open-Source-Initiative stimmt nicht mit Meta über "offene" KI überein

24. September 2024

  • Die Open Source Initiative (OSI) hat vor kurzem einen aktualisierten Definitionsentwurf für "Open-Source-KI" veröffentlicht
  • Die OSI-Gemeinschaft sagt, dass die Llama-Modelle von Meta trotz der Behauptungen des Unternehmens nicht quelloffen sind
  • Ein Konsens darüber, was quelloffene KI ist, wird aufgrund von Gesetzen wie dem EU-KI-Gesetz rechtliche Folgen haben

Die Open-Source-Initiative (OSI) hat einen aktualisierten Definitionsentwurf für Open-Source-KI veröffentlicht und stellt fest, dass die Modelle von Meta trotz der Behauptungen des Unternehmens nicht dafür in Frage kommen.

Mark Zuckerberg hat das Engagement von Meta für eine, wie er sagt, quelloffene KI deutlich gemacht. Obwohl Modelle wie Llama 3.1 weniger undurchsichtig sind als die proprietären Modelle von OpenAI oder Google, deuten die Diskussionen in der OSI-Community darauf hin, dass Meta den Begriff "Open-Source-KI" nur sehr locker verwendet.

Bei einer öffentliche Online-Rathausveranstaltung hat das OSI am Freitag die Kriterien erörtert, die seiner Meinung nach ein wirklich quelloffenes KI-Modell erfüllen sollte. Das OSI bezeichnet diese Kriterien als "4 Freiheiten" und sagt, dass eine quelloffene KI "ein KI-System ist, das unter Bedingungen und in einer Weise zur Verfügung gestellt wird, die diese Freiheiten gewähren:

  1. Nutzen Sie das System für jeden Zweck und ohne um Erlaubnis fragen zu müssen.
  2. Studieren Sie die Funktionsweise des Systems und überprüfen Sie seine Komponenten.
  3. das System zu einem beliebigen Zweck zu modifizieren, einschließlich der Änderung seiner Ausgabe.
  4. das System anderen zur Verfügung stellen, damit sie es mit oder ohne Änderungen für jeden Zweck nutzen können".

Um ein KI-Modell ändern zu können, müssen die OSI offene AI-Definition sagt, dass die Gewichte und der Quellcode offen sein sollten, und dass der Trainingsdatensatz verfügbar sein sollte.

Die Lizenz von Meta sieht einige Beschränkungen für die Verwendung seiner Modelle vor, und das Unternehmen hat es abgelehnt, die zum Trainieren seiner Modelle verwendeten Trainingsdaten zu veröffentlichen. Wenn man akzeptiert, dass die OSI der Hüter dessen ist, was "Open-Source" bedeutet, dann bedeutet das, dass Meta die Wahrheit verzerrt, wenn es seine Modelle als "offen" bezeichnet.

Die OSI ist eine gemeinnützige kalifornische Gesellschaft, die sich bei der Entwicklung von Open-Source-Standards auf die Beiträge der Gemeinschaft stützt. Einige in dieser Gemeinschaft haben Mark Zuckerberg vorgeworfen, die Modelle von Meta "offen zu waschen" und die Branche zu zwingen, seine Version statt der OSI-Definition zu akzeptieren.

Der Vorsitzende der Open Source Group Japan, Shuji Sado, sagte: "Es ist möglich, dass Zuckerberg eine andere Definition von Open Source hat als wir", und vermutete, dass die unklare Rechtslage in Bezug auf KI-Trainingsdaten und Urheberrechte der Grund dafür sein könnte.

Worte sind wichtig

Dies mag wie ein semantischer Streit klingen, aber je nachdem, welche Definition die KI-Branche annimmt, könnte dies schwerwiegende rechtliche Folgen haben.

Meta hat eine schwere Zeit hinter sich umgeht die EU-Gesetze zur Datenschutzgrundverordnung (GDPR) wegen seines unstillbaren Hungers nach den Social-Media-Daten der Nutzer. Einige Leute behaupten, dass Metas lockere Definition von "Open-Source-KI" ein Versuch ist, neue Gesetze wie die DSGVO zu umgehen. EU AI Act.

Das Gesetz sieht eine begrenzte Ausnahme für KI-Modelle für allgemeine Zwecke (GPAIMs) vor, die unter Open-Source-Lizenzen veröffentlicht werden. Diese Modelle sind von bestimmten Transparenzverpflichtungen ausgenommen, obwohl sie weiterhin eine Zusammenfassung der zum Trainieren des Modells verwendeten Inhalte bereitstellen müssen.

Auf der anderen Seite ist die vorgeschlagene SB 1047 Kalifornisches Gesetz zur AI-Sicherheit schreckt Unternehmen wie Meta davon ab, ihre Modelle an die OSI-Definition anzugleichen. Der Gesetzentwurf schreibt komplexe Sicherheitsprotokolle für "offene" Modelle vor und macht die Entwickler für schädliche Änderungen und Missbrauch durch böswillige Akteure haftbar.

SB 1047 definiert quelloffene KI-Tools als "Modelle künstlicher Intelligenz, die frei verfügbar gemacht werden und frei verändert und weitergegeben werden können". Bedeutet das, dass ein KI-Modell, das von einem Benutzer feinabgestimmt werden kann, "offen" ist, oder gilt die Definition nur, wenn das Modell alle OSI-Kriterien erfüllt?

Im Moment erlaubt die Unbestimmtheit Meta Marketingvorteile und Spielraum für die Aushandlung einiger Rechtsvorschriften. Irgendwann wird sich die Branche auf eine Definition festlegen müssen. Wird sie von einem großen Technologieunternehmen wie Meta oder von einer gemeinschaftsorientierten Organisation wie der OSI definiert werden?

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen