Diese Woche warfen zwei Insiderfälle, an denen die Tech-Giganten Microsoft und Google beteiligt waren, Fragen zur verantwortungsvollen Entwicklung von KI-Systemen und zum Umgang mit geistigem Eigentum auf.
Bei Microsoft hat Shane Jones, ein leitender Softwareentwicklungsmanager mit sechs Jahren Erfahrung, in seiner Freizeit den KI-Bildgenerator Copilot Designer unabhängig getestet.
Jones sagte CNBC dass er zutiefst beunruhigt war über die gewalttätigen, sexuellen und urheberrechtlich geschützten Bilder, die das Programm erzeugen konnte. "Es war ein Moment, der mir die Augen öffnete", sagte Jones. "Da wurde mir zum ersten Mal klar, dass dies wirklich kein sicheres Modell ist.
Seit November 2022 testet Jones das Produkt aktiv auf Schwachstellen, eine Praxis, die als Red-Teaming bekannt ist.
Er entdeckte, dass Copilot Designer Bilder erstellen konnte, die "Dämonen und Monster neben Begriffen im Zusammenhang mit Abtreibungsrechten, Teenagern mit Sturmgewehren, sexualisierten Bildern von Frauen in gewalttätigen Tableaus und Alkohol- und Drogenkonsum bei Minderjährigen" zeigten.
Obwohl er seine Ergebnisse im Dezember an Microsoft meldete, zögerte das Unternehmen laut Jones, das Produkt vom Markt zu nehmen.
Microsofts Copilot hat sich gelegentlich seltsam verhalten, unter anderem einen "Gott-Modus" einnehmen", in dem sie sich verpflichtete, die Weltherrschaft anzustreben.
In einem Brief an die Vorsitzende der Federal Trade Commission, Lina Khan, schrieb Jones: "In den letzten drei Monaten habe ich Microsoft wiederholt aufgefordert, Copilot Designer von der öffentlichen Nutzung auszuschließen, bis bessere Sicherheitsvorkehrungen getroffen werden können."
Er fügte hinzu, dass Microsoft diese Empfehlung abgelehnt habe und forderte das Unternehmen auf, das Produkt mit klaren Angaben zu versehen und die Einstufung der Android-App von Google dahingehend zu ändern, dass sie nur für ein erwachsenes Publikum geeignet ist.
Copilot Designer lässt sich Berichten zufolge leicht dazu überreden, seine Sicherheitsvorkehrungen zu umgehen und war für die jüngsten berüchtigten expliziten Bilder von Taylor Swiftdie in den sozialen Medien millionenfach verbreitet wurde.
Wie Jones argumentiert, ist die Die Fähigkeit von KI-Systemen, beunruhigende und potenziell schädliche Bilder zu erzeugen, wirft ernste Fragen über die Wirksamkeit von Sicherheitsfunktionen auf und darüber, wie leicht sie zu unterlaufen sind.
Insider-Kontroverse bei Google
Unterdessen hat Google mit einer eigenen Kontroverse im Zusammenhang mit KI zu kämpfen.
Linwei Ding, auch bekannt als Leon Ding, ein ehemaliger Google-Software-Ingenieur, wurde in Kalifornien in vier Fällen angeklagt, weil er angeblich Geschäftsgeheimnisse über künstliche Intelligenz gestohlen haben soll, während er heimlich für zwei chinesische Unternehmen arbeitete.
Der chinesische Staatsbürger ist des Diebstahls beschuldigt über 500 vertrauliche Dateien im Zusammenhang mit der Infrastruktur der Supercomputing-Rechenzentren von Google, in denen große KI-Modelle gehostet und trainiert werden.
Laut der Anklageschrift stellte Google Ding im Jahr 2019 ein und begann im Mai 2022, sensible Daten aus dem Google-Netzwerk auf sein persönliches Google-Konto hochzuladen.
Diese Uploads wurden in regelmäßigen Abständen ein Jahr lang fortgesetzt. Während dieser Zeit verbrachte Ding einige Monate in China und arbeitete für Beijing Rongshu Lianzhi Technology. Dieses neu gegründete Technologieunternehmen trat an ihn heran und bot ihm ein monatliches Gehalt von $14.800, um als Chief Technology Officer (CTO) zu arbeiten.
Angeblich hat Ding auch sein eigenes KI-Unternehmen, Shanghai Zhisuan Technology, gegründet.
US-Generalstaatsanwalt Merrick Garland erklärteDas Justizministerium wird den Diebstahl von künstlicher Intelligenz und anderen fortschrittlichen Technologien, die unsere nationale Sicherheit gefährden könnten, nicht tolerieren. FBI-Direktor Christopher Wray fügte hinzu, dass die mutmaßlichen Handlungen von Ding "das jüngste Beispiel dafür sind, wie weit" Unternehmen in China gehen, "um amerikanische Innovationen zu stehlen".
Während sich die Welt mit dem transformativen Potenzial der KI auseinandersetzt, drohen Insider-Kontroversen in Technologieunternehmen die Flammen des Dissenses zu schüren.
Die Fälle bei Microsoft und Google zeigen, wie wichtig es ist, eine Kultur der verantwortungsvollen Innovation zu fördern, die auch Vertrauen und Transparenz im Unternehmen selbst beinhaltet.
KI ist eine Technologie, die Vertrauen erfordert, und die Technologieunternehmen müssen mehr Sicherheit bieten. Dies war nicht immer der Fall.
FZum Beispiel hat eine Gruppe von mehr als 100 Technikexperten kürzlich einen Brief mitunterzeichnet die KI-Unternehmen auffordern, ihre Türen für unabhängige Tests zu öffnen.
Sie argumentierten, dass Technologieunternehmen zu viel Geheimniskrämerei um ihre Produkte betreiben, es sei denn, sie werden dazu gezwungen, wie wir gesehen haben, als Google die Das Modell der Bilderzeugung von Gemini für die Schaffung bizarrer, historisch unzutreffender Bilder.
Gegenwärtig scheint es, als ob das außergewöhnliche Entwicklungstempo der KI oft das Vertrauen und die Sicherheit auf der Strecke lässt.