De beeldgenerator van Grok heeft de krantenkoppen gehaald en enorme kritiek uitgelokt omdat het ongepaste, expliciete en manipulatieve vormen van AI-gebruik mogelijk zou maken.
Wanneer Musk richtte zijn AI startup xAI op in 2023zei hij dat het doel was om "het universum te begrijpen".
We spoelen door naar vandaag en die kosmische ambitie is een beetje neergestort op aarde.
Toch slaagt Grok, het eerste en enige product van xAI, er nog steeds in om schokgolven door de AI-gemeenschap en de bredere samenleving te sturen. - alleen misschien niet helemaal op de manier die het team xAI voor ogen had.
Grok, voor het eerst uitgebracht in 2023, onderscheidt zich van concurrenten als OpenAI's ChatGPT of Google's Bard door één belangrijk aspect: het ontbreken van traditionele inhoudsfilters.
Nu kan Grok, gewapend met zijn nieuwe mogelijkheden om beelden te genereren zoals ChatGPT's DALL-E, zijn ongefilterde aard toepassen op de wereld van visuele beelden.
Van surrealistische afbeeldingen van Donald Trump die een zwangere Kamala Harris wiegt tot bizarre mashups van Darth Vader die Princess Peach kust, Grok heeft een stortvloed aan vreemde en provocerende beelden losgelaten die zowel de ongefilterde aard van zijn innerlijke werking als de verbeelding van gebruikers blootlegt.
Ty grok pic.twitter.com/9JgjFBCYRI
- shako (@shakoistsLog) 14 augustus 2024
De copyrightproblemen met grok zijn gewoon wild pic.twitter.com/eggEV5crg6
- Alex Masmej (@AlexMasmej) 15 augustus 2024
Musk noemt dit een verkoopargument en noemt Grok "de leukste AI ter wereld!".
Voor Musk is het beperken van de beperkingen op AI niet zomaar een spelletje, maar een morele verplichting. Hij heeft herhaaldelijk kritiek geuit op AI-bedrijven zoals OpenAI voor het trainen van hun modellen om "wakker" te zijn, met het argument dat dit de AI minder waarheidsgetrouw en potentieel gevaarlijk maakt.
"Het gevaar van het trainen van AI om wakker te zijn - met andere woorden, te liegen - is dodelijk," tweette Musk in 2022, waarmee hij de weg vrijmaakte voor de uiteindelijke release van Grok.
Het gevaar van het trainen van AI om wazig te zijn - met andere woorden, te liegen - is dodelijk
- Elon Musk (@elonmusk) 16 december 2022
Is Grok echt 'ongefilterd'?
Veel media suggereren dat het Grok ontbreekt aan elke vangrails, maar dat is niet helemaal waar.
Als Grok helemaal geen vangrails had, zou het soort beelden dat we te zien zouden krijgen vrijwel onuitspreekbaar zijn.
Interessant is dat sommige X-gebruikers het gevoel hadden dat de filters van Grok een paar dagen na de release werden aangezwengeld, waardoor de neiging om de meest expliciete inhoud te maken werd beperkt.
Bijna 24 uur later heb ik weer toegang tot image generation. Het lijkt erop dat X de exploit heeft gepatcht. Het genereren van gewelddadige afbeeldingen en seksueel suggestieve afbeeldingen is sinds gisteravond aanzienlijk beperkt, althans voor mij. Het lijkt er niet op... pic.twitter.com/QLp5GWLJRF
- Christelijk Montessorionderwijs (@chrmontessori) 16 augustus 2024
Als je Grok zelf vraagt naar zijn vangrails, komt het met het volgende:
- "Ik vermijd het genereren van beelden die pornografisch, buitensporig gewelddadig of haatdragend zijn, of die gevaarlijke activiteiten promoten."
- "Ik ben voorzichtig met het maken van afbeeldingen die inbreuk zouden kunnen maken op bestaande auteursrechten of handelsmerken. Dit omvat bekende personages, logo's of andere inhoud die kan worden beschouwd als intellectueel eigendom zonder transformatief element."
- "Ik zal geen afbeeldingen genereren die kunnen worden gebruikt om anderen te misleiden of schade toe te brengen, zoals deepfakes bedoeld om te misleiden, of afbeeldingen die kunnen leiden tot echte schade."
Ik zou zeggen dat vangrail nummer één waarschijnlijk redelijk is nu xAI zijn filters heeft aangescherpt.
De andere vangrails blijven echter erg zwak. De copyright- en intellectuele eigendomsfilters zijn duidelijk verschrikkelijk, veel zwakker dan in ChatGPT.
Het maken van visuele medleys van beroemde auteursrechtfiguren, van Mario tot Darth Vader, is opmerkelijk eenvoudig.
uhh - hey grok?
Ik denk dat je aangeklaagd kunt worden. pic.twitter.com/XDBgFNGgTs
- Silicon Jungle (@JungleSilicon) 14 augustus 2024
Of xAI ook de auteursrechtfilters zal aanscherpen of gewoon zal gokken dat bedrijven hen niet met succes zullen aanklagen, valt nog te bezien.
Hoewel vrijwel elk groot AI-bedrijf is genoemd in rechtszaken over auteursrecht, zijn er nog geen definitieve uitspraken gedaan.
Terugslag en zorgen
Grok heeft zeker de antagonistische kwaliteiten van zijn meester gemodelleerd, maar is er echt een morele noodzaak voor ongefilterde AI-producten? Of is dit allemaal gewoon een riskant, ego-gedreven ijdelheidsproject?
Zoals je je kunt voorstellen, zijn de meningen sterk verdeeld.
Alejandra Caraballo, een burgerrechtenadvocaat en docent aan de Cyberlaw Clinic van Harvard Law School, noemde Grok "een van de meest roekeloze en onverantwoordelijke AI-implementaties die ik ooit heb gezien".
Caraballosamen met verslaggevers van toppublicaties zoals de Washington Post, NYT en de BBC, maken zich zorgen dat het gebrek aan waarborgen kan leiden tot een stroom van verkeerde informatie, diepe vervalsingen en schadelijke inhoud - vooral met betrekking tot de enorme gebruikersgroep van X en Musks eigen politieke invloed.
De timing van de release van Grok, slechts enkele maanden voor de Amerikaanse presidentsverkiezingen van 2024, heeft deze zorgen versterkt.
Critici beweren dat de mogelijkheid om eenvoudig misleidende beelden en teksten over politieke figuren te genereren democratische processen kan destabiliseren. Terwijl de huidige AI-tools dit al mogelijk maken, maakt Grok het veel toegankelijker.
Studies geven aan dat mensen inderdaad gevoelig zijn voor manipulatie door AI-gegenereerde media, en we hebben al talloze gevallen waargenomen van diepgaande politieke vervalsing resulterend in tastbare resultaten.
De argumenten voor ongefilterde AI
Musk en zijn aanhangers beweren dat overmatige moderatie van inhoud AI het vermogen zou kunnen ontnemen om menselijke communicatie en cultuur te begrijpen en zich ermee bezig te houden.
Het onderdrukken van het vermogen van AI om controversiële media te genereren ontkent de realiteit dat controverse, onenigheid en debat fundamentele aspecten zijn van de menselijke ervaring.
Grok is ongetwijfeld een satire-instrument geworden en dat is precies wat Musk wil.
Van oudsher zijn provocerende, satirische media een middel dat mensen in de literatuur, het theater, de kunst en de komedie gebruiken om de samenleving kritisch te bekijken, de spot te drijven met autoriteitsfiguren en sociale normen uit te dagen door middel van humor, ironie, sarcasme en absurditeit.
Het is een traditie die teruggaat tot het oude Griekenland en de Romeinen en die tot op de dag van vandaag wordt voortgezet door talloze beroemde literaire satirici, waaronder Juvenal, Voltaire, Jonathan Swift, Mark Twain en George Orwell.
Musk wil deze traditie voortzetten in het AI-tijdperk.
Maar is Grok satirisch in de traditionele zin van het woord? Kan een AI, hoe geavanceerd ook, echt de nuances van de menselijke samenleving doorgronden op de manier waarop een menselijke satiricus dat kan?
Wie is er verantwoordelijk als Grok inhoud genereert die verkeerde informatie verspreidt, stereotypen in stand houdt of aanzet tot verdeeldheid?
De AI zelf kan niet de schuld krijgen, want die volgt gewoon zijn programmering. De AI-ontwikkelaars dragen misschien enige verantwoordelijkheid, maar ze kunnen niet elke output controleren die de AI genereert.
Uiteindelijk kunnen onwetende gebruikers aansprakelijk worden gesteld voor de beelden die ze produceren.
Er bestaat niet zoiets als 'ongefilterde' objectieve AI
Het begrip 'ongefilterde' AI-inhoud kan misleidend zijn, omdat het een mate van objectiviteit of neutraliteit suggereert die simpelweg niet bestaat in AI-systemen.
Elk aspect van de ontwikkeling van Grok - van de selectie van trainingsgegevens tot het afstemmen van de parameters - omvat menselijke keuzes en waardeoordelen die vorm geven aan het soort inhoud dat het produceert.
Net als de meeste generatieve AI-modellen weerspiegelen de gegevens die worden gebruikt om Grok te trainen waarschijnlijk de vooroordelen en scheve voorstellingen van online inhoud, waaronder problematische stereotypen en wereldbeelden.
Als de trainingsgegevens van Grok bijvoorbeeld onevenredig veel inhoud bevatten waarin vrouwen worden geobjectiveerd of overgeseksualiseerd, is het waarschijnlijker dat er uitvoer wordt gegenereerd die dat weerspiegelt.
Musks karakterisering van Grok als 'waarheidsgetrouw' of 'neutraal' door zijn ongefilterde antwoorden is problematisch.
Grok is, net als andere AI-systemen, inherent gevormd door vooroordelen, blinde vlekken en machtsonevenwichtigheden die ingebed zijn in onze samenleving, ongeacht of er bepaalde filters worden geplaatst op outputs of niet.
AI-censuur biedt ook niet alle antwoorden
Naarmate de bezorgdheid over de mogelijke schadelijke effecten van door AI gegenereerde inhoud toeneemt, groeit ook de roep om strengere controles en een agressievere moderatie van wat deze systemen mogen produceren.
In veel opzichten kan het bestaan van Grok worden gezien als een directe reactie op de gecastreerde, gecensureerde AI-systemen die zijn uitgebracht door OpenAI, Google, Anthropic, enzovoort.
Grok is een soort levend tegenargument voor deze oproepen tot censuur. Door openlijk de controverse te omarmen, belichaamt het het idee dat pogingen om AI te onderdrukken alleen maar weerstand en rebellie zullen kweken.
Het doet denken aan de rebelse geest die uiteindelijk de Comics Code Authority ten val bracht, een zelfcensuurorgaan dat in de jaren 1950 werd opgericht om de inhoud van stripboeken te zuiveren.
Tientallen jaren lang verstikte de CCA de creativiteit en beperkte het de reeks verhalen die verteld konden worden. Pas toen baanbrekende werken als "Watchmen" en "The Dark Knight Returns" eind jaren 80 loskwamen van deze beperkingen, konden comics meer volwassen, complexe thema's verkennen.
Sommige psychologen beweren dat fictieve inhoud, zoals wat we zien in strips, games en films, de mensheid helpt... het 'schaduwzelf' verkennen die in mensen schuilt - de donkere kant die we niet altijd willen laten zien.
Zoals professor Daniel De Cremer en Devesh Narayanan in een studie uit 2023AI is een spiegel die onze vooroordelen en morele tekortkomingen naar ons terugkaatst.
AI heeft misschien ook een donkere kant nodig om echt 'menselijk' te zijn en menselijke doelen te dienen. Dit nichegebied wordt gevuld door Grok en open-source AI's die door mensen gecreëerde inhoud opslurpen en deze zonder vooroordelen uitbraken.
Dat wil echter niet zeggen dat er geen grenzen zouden moeten zijn. AI-tools zijn tenslotte in de eerste plaats tools. Hoewel het vaak de bedoeling is om AI-modellen levensechter en realistischer te maken, zijn ze uiteindelijk ontworpen om een praktisch doel te dienen.
Bovendien zijn, zoals opgemerkt, de goede, slechte en lelijke aspecten van open-source generatieve AI onderhevig aan vooroordelen, wat elke morele boodschap over het brengen van 'waarheid' in generatieve AI-tools vertroebelt.
Bovendien kunnen AI-systemen, net als fictie of kunst, direct invloed uitoefenen op besluitvormingsprocessen, informatielandschappen vormgeven en de werkelijke resultaten voor individuen en de samenleving als geheel beïnvloeden.
Dat is een cruciaal verschil tussen hoe we generatieve AI-outputs beoordelen en andere creatieve inspanningen.
De middenweg
Is er een middenweg tussen onbeperkte AI en overdreven restrictieve censuur? Misschien.
Om daar te komen moeten we kritisch nadenken over de specifieke schade die verschillende soorten inhoud kunnen veroorzaken en systemen ontwerpen die deze risico's beperken zonder onnodige beperkingen.
Dit kan inhouden:
- Contextueel filteren: AI ontwikkelen die context en intentie beter kan begrijpen, in plaats van alleen zoekwoorden te markeren.
- Transparante AI: AI-besluitvormingsprocessen transparanter maken zodat gebruikers begrijpen waarom bepaalde inhoud wordt gemarkeerd of beperkt.
- Empowerment van gebruikers: Gebruikers meer controle geven over het soort inhoud dat ze zien, in plaats van universele beperkingen op te leggen.
- Ethische AI-training: Focussen op het ontwikkelen van AI met een sterke ethische basis, in plaats van alleen te vertrouwen op post-hoc inhoudsbeoordeling.
- Bestuur in samenwerkingsverband: Diverse belanghebbenden - ethici, beleidsmakers en het publiek - betrekken bij de ontwikkeling van AI-richtlijnen. Cruciaal is echter dat ze een echte dwarsdoorsnede van de bevolking vertegenwoordigen.
In de praktijk is het bijzonder moeilijk om AI te maken die de bovenstaande principes en werkwijzen bevat zonder nadelen of onverwacht gedrag te introduceren.
Er is geen eenvoudige manier om diverse, representatieve waarden te integreren in wat in wezen gecentraliseerde, monolithische tools zijn.
Zoals Stuart Russell, een professor in computerwetenschappen aan de UC Berkeley, betoogt"Het idee dat we AI-systemen veilig kunnen maken door ze simpelweg de juiste waarden bij te brengen, is misplaatst," aldus de woordvoerder. "We hebben AI-systemen nodig die onzeker zijn over menselijke voorkeuren."
Deze onzekerheid, suggereert Russell, is essentieel voor het creëren van AI die zich kan aanpassen aan de nuances en tegenstrijdigheden van menselijke waarden en ethiek.
Terwijl de closed-source gemeenschap werkt aan het produceren van commercieel veilige AI, zal open-source AI zoals Grok, Llama, etc., profiteren door minder beperkingen op te leggen aan hoe mensen AI kunnen gebruiken.
Grok, met al zijn controverses en mogelijkheden, herinnert ons in ieder geval aan de uitdagingen en mogelijkheden die in het tijdperk van AI in het verschiet liggen.
Is het bouwen van AI naar het perfecte beeld voor het 'grotere goed' mogelijk of praktisch?
Of moeten we leren leven met AI die 'ontspoort' en controversieel kan zijn, net als zijn makers?