Der Bildgenerator von Grok sorgt für große Kontroversen, aber wie gefährlich ist er wirklich?

17. August 2024

  • Elon Musks quelloffenes Modell Grok kann jetzt auch Bilder erzeugen
  • Dies überschwemmte das Internet mit lustigen, seltsamen und expliziten KI-Bildern
  • Sollten wir uns über Grok Sorgen machen? Oder hat die "ungefilterte KI" auch ihre Vorzüge?
grok

Der Bildgenerator von Grok ist in die Schlagzeilen geraten und hat immense Kritik hervorgerufen, weil er unangemessene, explizite und manipulative Formen der KI-Nutzung ermöglicht. 

Wenn Moschus gründete sein KI-Startup xAI im Jahr 2023Er sagte, das Ziel sei es, "das Universum zu verstehen". 

Heute ist dieser kosmische Ehrgeiz wieder auf der Erde gelandet.

Dennoch schafft es Grok, das erste und einzige Produkt von xAI, immer noch, Schockwellen durch die KI-Gemeinschaft und die breitere Gesellschaft zu senden - nur vielleicht nicht ganz so, wie es sich das Team xAI vorgestellt hat.

Grok, das 2023 auf den Markt kommt, unterscheidet sich von Konkurrenten wie ChatGPT von OpenAI oder Bard von Google in einem entscheidenden Punkt: Es gibt keine herkömmlichen Inhaltsfilter. 

Mit seinen neuen Fähigkeiten zur Bilderzeugung, wie z. B. DALL-E von ChatGPT, kann Grok nun seine ungefilterte Natur auf die Welt der visuellen Bilder anwenden. 

Von surrealen Darstellungen von Donald Trump, der eine schwangere Kamala Harris in den Armen hält, bis hin zu bizarren Mashups von Darth Vader, der Prinzessin Peach küsst, hat die Grok eine Flut seltsamer und provokativer Bilder ausgelöst, die sowohl die ungefilterte Natur ihres Innenlebens als auch die Fantasie der Nutzer offenlegen.

Musk preist dies als Verkaufsargument an und nennt Grok "die spaßigste KI der Welt!"

Für Musk ist die Einschränkung der KI nicht nur ein Spaß, sondern ein moralisches Gebot. Er hat wiederholt kritisiert, dass KI-Unternehmen wie OpenAI ihre Modelle darauf trainieren, "wach" zu sein, und argumentiert, dass dies die KI weniger wahrheitsgetreu und potenziell gefährlich macht.

"Die Gefahr, der KI beizubringen, wach zu sein - mit anderen Worten zu lügen - ist tödlich", twitterte Musk 2022 und bereitete damit den Weg für die Veröffentlichung von Grok. 

Ist Grok wirklich "ungefiltert"?

Viele Medien suggerieren, dass es Grok an jede Leitplanken, aber das ist nicht ganz richtig. 

Wenn Grok keinerlei Leitplanken hätte, wären die Bilder, die wir sehen würden, so gut wie unsäglich. 

Interessanterweise waren einige X-Nutzer der Meinung, dass die Filter von Grok ein paar Tage nach der Veröffentlichung hochgeschraubt wurden, um die Neigung zur Erstellung besonders expliziter Inhalte einzudämmen. 

Fragt man Grok selbst nach seinen Leitplanken, so antwortet es mit folgenden Angaben:

  • "Ich vermeide es, Bilder zu erstellen, die pornografisch, übermäßig gewalttätig oder hasserfüllt sind oder die gefährliche Aktivitäten fördern.
  • "Ich bin vorsichtig bei der Erstellung von Bildern, die bestehende Urheberrechte oder Marken verletzen könnten. Dazu gehören bekannte Figuren, Logos oder andere Inhalte, die ohne ein transformatives Element als geistiges Eigentum betrachtet werden könnten.
  • "Ich werde keine Bilder erstellen, die dazu verwendet werden könnten, andere zu täuschen oder zu schädigen, wie z. B. Deepfakes, die in die Irre führen sollen, oder Bilder, die zu realen Schäden führen könnten.

Ich würde sagen, Leitplanke Nummer eins ist wahrscheinlich fair, jetzt, wo xAI seine Filter hochgeschraubt hat. 

Die anderen Leitplanken sind jedoch nach wie vor sehr schwach. Die Filter für Urheberrecht und geistiges Eigentum sind offensichtlich schrecklich, viel schwächer als in ChatGPT.

Die Erstellung von visuellen Medleys berühmter Urheberrechtsfiguren, von Mario bis Darth Vader, ist bemerkenswert einfach. 

Es bleibt abzuwarten, ob xAI auch die Urheberrechtsfilter einschalten oder nur darauf setzen wird, dass die Unternehmen sie nicht erfolgreich verklagen werden.

Obwohl praktisch jedes große KI-Unternehmen in Urheberrechtsklagen genannt wurde, stehen endgültige Urteile noch aus.

Rückschläge und Bedenken

Grok hat definitiv die antagonistischen Eigenschaften seines Meisters nachgeahmt, aber gibt es wirklich einen moralischen Imperativ für ungefilterte KI-Produkte? Oder ist das alles nur ein riskantes, egozentrisches Eitelkeitsprojekt?

Wie Sie sich vorstellen können, sind die Meinungen sehr geteilt.

Alejandra Caraballo, eine Bürgerrechtsanwältin und Dozentin an der Cyberlaw Clinic der Harvard Law School, bezeichnete Grok als "eine der rücksichtslosesten und unverantwortlichsten KI-Implementierungen, die ich je gesehen habe". 

Caraballosowie Reporter von Top-Publikationen wie der Washington Post, der NYT und der BBC befürchten, dass das Fehlen von Schutzmaßnahmen zu einer Flut von Fehlinformationen, tiefgreifenden Fälschungen und schädlichen Inhalten führen könnte - insbesondere im Hinblick auf die massive Nutzerbasis von X und Musks eigenen politischen Einfluss.

Der Zeitpunkt der Veröffentlichung von Grok, nur wenige Monate vor den US-Präsidentschaftswahlen 2024, hat diese Bedenken noch verstärkt. 

Kritiker argumentieren, dass die Fähigkeit, auf einfache Weise irreführende Bilder und Texte über politische Persönlichkeiten zu erstellen, demokratische Prozesse destabilisieren könnte. Während aktuelle KI-Tools dies bereits ermöglichen, macht Grok es weitaus zugänglicher. 

Studien deuten darauf hin, dass Menschen tatsächlich anfällig für Manipulationen durch KI-generierte Medien sind, und wir haben bereits zahlreiche Fälle von tiefgreifenden politischen Fälschungen beobachtet die zu greifbaren Ergebnissen führen

Das Argument für ungefilterte KI

Musk und seine Befürworter argumentieren, dass eine übermäßige Moderation von Inhalten die KI der Fähigkeit berauben könnte, die menschliche Kommunikation und Kultur zu verstehen und sich mit ihr auseinanderzusetzen.

Die Unterdrückung der Fähigkeit der KI, kontroverse Medien zu erzeugen, verleugnet die Tatsache, dass Kontroversen, Meinungsverschiedenheiten und Debatten grundlegende Aspekte der menschlichen Erfahrung sind.

Grok ist zweifelsohne zu einem Instrument der Satire geworden, und das ist genau das, was Musk will.

Historisch gesehen sind provokante, satirische Medien ein Mittel, das Menschen in der Literatur, im Theater, in der Kunst und in der Komödie einsetzen, um die Gesellschaft kritisch zu hinterfragen, sich über Autoritätspersonen lustig zu machen und soziale Normen durch Witz, Ironie, Sarkasmus und Absurdität in Frage zu stellen. 

Diese Tradition reicht bis ins antike Griechenland und zu den Römern zurück und wurde von zahlreichen berühmten literarischen Satirikern wie Juvenal, Voltaire, Jonathan Swift, Mark Twain und George Orwell bis in die Gegenwart fortgeführt.

Musk möchte diese Tradition in das Zeitalter der KI übertragen.

Aber ist Grok satirisch im herkömmlichen Sinne? Kann eine noch so ausgefeilte KI die Feinheiten der menschlichen Gesellschaft wirklich so erfassen wie ein menschlicher Satiriker?

Wer ist dafür verantwortlich, wenn Grok Inhalte erstellt, die Fehlinformationen verbreiten, Stereotypen aufrechterhalten oder zur Spaltung beitragen?

Die KI selbst kann nicht dafür verantwortlich gemacht werden, da sie einfach ihrer Programmierung folgt. Die KI-Entwickler tragen zwar eine gewisse Verantwortung, aber sie können nicht alle Ergebnisse der KI kontrollieren.

Letztendlich könnten unwissende Nutzer die Haftung für die von ihnen produzierten Bilder übernehmen.

Es gibt keine "ungefilterte" objektive KI

Der Begriff "ungefilterte" KI-Inhalte kann irreführend sein, da er ein Maß an Objektivität oder Neutralität suggeriert, das es bei KI-Systemen einfach nicht gibt.

Jeder Aspekt der Entwicklung von Grok - von der Auswahl der Trainingsdaten bis hin zur Einstellung der Parameter - beinhaltet menschliche Entscheidungen und Werturteile, die die Art der produzierten Inhalte bestimmen.

Wie bei den meisten generativen KI-Modellen spiegeln die zum Training von Grok verwendeten Daten wahrscheinlich die Vorurteile und verzerrte Darstellungen von Online-Inhalten, einschließlich problematischer Stereotypen und Weltanschauungen.

Wenn die Trainingsdaten von Grok beispielsweise eine unverhältnismäßig große Menge an Inhalten enthalten, die Frauen objektivieren oder übersexualisieren, kann es wahrscheinlicher sein, dass es Ergebnisse erzeugt, die dies widerspiegeln.

Musks Charakterisierung von Grok als "wahrheitsgemäß" oder "neutral" aufgrund seiner ungefilterten Antworten ist problematisch.

Grok ist, wie andere KI-Systeme auch, von Natur aus von Vorurteilen, blinden Flecken und Machtungleichgewichten geprägt, die in unserer Gesellschaft verankert sind, unabhängig davon, ob bestimmte Filter auf die Ergebnisse angewendet werden oder nicht.

Auch die KI-Zensur liefert nicht alle Antworten

In dem Maße, in dem die Besorgnis über die potenziellen Schäden von KI-generierten Inhalten wächst, werden auch Forderungen nach strengeren Kontrollen und einer aggressiveren Mäßigung der Inhalte laut, die diese Systeme produzieren dürfen.

In vielerlei Hinsicht kann die Existenz von Grok als direkte Antwort auf die kastrierten, zensierten KI-Systeme von OpenAI, Google, Anthropic und so weiter gesehen werden.

Grok ist eine Art lebendiges Gegenargument zu diesen Forderungen nach Zensur. Indem es die Kontroverse offen aufgreift, verkörpert es die Idee, dass Versuche, KI zu unterdrücken, nur Widerstand und Rebellion hervorrufen.

Es erinnert an den rebellischen Geist, der schließlich die Comics Code Authority zu Fall brachte, eine Selbstzensurbehörde, die in den 1950er Jahren eingerichtet wurde, um den Inhalt von Comics zu zensieren.

Jahrzehntelang hemmte die CCA die Kreativität und schränkte die Bandbreite der Geschichten ein, die erzählt werden konnten. Erst als sich bahnbrechende Werke wie "Watchmen" und "The Dark Knight Returns" in den späten 1980er Jahren von diesen Beschränkungen lösten, konnten Comics reifere, komplexere Themen erkunden.

Einige Psychologen argumentieren, dass fiktionale Inhalte, wie wir sie in Comics, Spielen und Filmen sehen, der Menschheit helfen das "Schattenselbst" erforschen die in den Menschen steckt - die dunkle Seite, die wir nicht immer zeigen wollen.

Wie Professor Daniel De Cremer und Devesh Narayanan Anmerkung in einer Studie von 2023KI ist ein Spiegel, der uns unsere Voreingenommenheit und unsere moralischen Schwächen zurückwirft.

KI braucht vielleicht auch eine dunkle Seite, um wirklich "menschlich" zu sein und menschlichen Zwecken zu dienen. Diese Nische wird von Grok und Open-Source-KI besetzt, die von Menschen erstellte Inhalte aufnehmen und vorurteilsfrei wiedergeben.  

Das heißt aber nicht, dass es keine Grenzen geben sollte. KI-Tools sind schließlich in erster Linie Werkzeuge. Auch wenn die Absicht oft darin besteht, KI-Modelle lebensechter und realistischer zu machen, sollen sie letztlich einem praktischen Zweck dienen.

Wie bereits erwähnt, unterliegen die guten, schlechten und hässlichen Aspekte der generativen Open-Source-KI der Voreingenommenheit, was jede moralische Botschaft, die generativen KI-Tools die "Wahrheit" zu bringen, trübt.

Darüber hinaus können KI-Systeme - wie Werke der Fiktion oder der Kunst - Entscheidungsprozesse direkt beeinflussen, Informationslandschaften formen und reale Ergebnisse für den Einzelnen und die Gesellschaft im Allgemeinen beeinflussen.

Das ist ein entscheidender Unterschied zwischen der Beurteilung generativer KI-Leistungen und anderen kreativen Bemühungen.

Der Mittelweg

Gibt es einen Mittelweg zwischen uneingeschränkter KI und übermäßig restriktiver Zensur? Vielleicht.

Um dieses Ziel zu erreichen, müssen wir kritisch über die spezifischen Schäden nachdenken, die verschiedene Arten von Inhalten verursachen können, und Systeme entwickeln, die diese Risiken ohne unnötige Einschränkungen mindern.

Dies könnte bedeuten:

  1. Kontextbezogene Filterung: Entwicklung einer KI, die den Kontext und die Absicht besser verstehen kann, anstatt nur Schlüsselwörter zu markieren.
  2. Transparentes AI: Die KI-Entscheidungsprozesse müssen transparenter werden, damit die Nutzer verstehen können, warum bestimmte Inhalte gekennzeichnet oder eingeschränkt werden.
  3. Befähigung der Nutzer: Den Nutzern mehr Kontrolle über die Art der Inhalte geben, die sie sehen, anstatt universelle Beschränkungen aufzuerlegen.
  4. Ethische AI-Ausbildung: Konzentration auf die Entwicklung von KI mit soliden ethischen Grundlagen, statt sich nur auf die nachträgliche Moderation von Inhalten zu verlassen.
  5. Kooperative Verwaltung: Einbeziehung verschiedener Interessengruppen - Ethiker, politische Entscheidungsträger und die Öffentlichkeit - in die Entwicklung von KI-Leitlinien. Entscheidend ist jedoch, dass sie einen wirklichen Querschnitt der Bevölkerung repräsentieren müssen. 

In der Praxis ist es äußerst schwierig, eine KI zu entwickeln, die die oben genannten Grundsätze und Praktiken berücksichtigt, ohne dabei Nachteile oder unerwartete Verhaltensweisen einzuführen.

Es gibt keine einfache Möglichkeit, verschiedene, repräsentative Werte in zentralisierte, monolithische Werkzeuge einzubinden. 

Wie Stuart Russell, Professor für Informatik an der UC Berkeley, sagte, argumentiertDie Vorstellung, dass wir KI-Systeme sicher machen können, indem wir ihnen die richtigen Werte einimpfen, ist ein Irrglaube. "Wir brauchen KI-Systeme, die sich über die menschlichen Vorlieben im Unklaren sind.

Diese Ungewissheit, so Russell, ist eine wesentliche Voraussetzung für die Entwicklung von KI, die sich an die Nuancen und Widersprüche menschlicher Werte und Ethik anpassen kann. 

Während die Closed-Source-Gemeinschaft daran arbeitet, kommerziell sichere KI zu entwickeln, wird Open-Source-KI wie Grok, Llama usw. davon profitieren, dass die Nutzung von KI weniger Einschränkungen unterliegt.

Grok, mit all seinen Kontroversen und Fähigkeiten, erinnert uns zumindest an die Herausforderungen und Möglichkeiten, die im Zeitalter der KI vor uns liegen. 

Ist die Entwicklung von KI nach dem perfekten Vorbild für das "Allgemeinwohl" möglich oder sinnvoll?

Oder sollten wir lernen, mit einer KI zu leben, die in der Lage ist, "aus der Reihe zu tanzen" und kontrovers zu sein, so wie ihre Schöpfer?

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen