Groks bildgenerator har skapat rubriker och väckt enorm kritik för att möjliggöra olämpliga, explicita och manipulativa former av AI-användning.
När Musk grundade sitt AI-startup xAI 2023sa han att målet var att "förstå universum".
Spola fram till idag och den kosmiska ambitionen har på sätt och vis kraschlandat på jorden.
Grok, xAI:s första och enda produkt, har ändå lyckats sända chockvågor genom AI-samhället och samhället i stort - men kanske inte riktigt på det sätt som xAI-teamet hade föreställt sig.
Grok släpptes för första gången 2023 och skiljer sig från konkurrenter som OpenAI:s ChatGPT eller Googles Bard i en viktig aspekt - avsaknaden av traditionella innehållsfilter.
Nu kan Grok, med sina nya möjligheter att generera bilder som ChatGPT:s DALL-E, tillämpa sin ofiltrerade natur på den visuella bildvärlden.
Från surrealistiska avbildningar av Donald Trump som vaggar en gravid Kamala Harris till bisarra mashups av Darth Vader som kysser prinsessan Peach, har Grok släppt lös en ström av konstiga och provocerande bilder som avslöjar både den ofiltrerade naturen hos dess inre arbete och användarnas fantasi.
Ty grok pic.twitter.com/9JgjFBCYRI
- shako (@shakoistsLog) 14 augusti 2024
Upphovsrättsfrågorna med grok är bara vilda pic.twitter.com/eggEV5crg6
- Alex Masmej (@AlexMasmej) 15 augusti 2024
Musk lyfter fram detta som ett försäljningsargument och kallar Grok för "världens roligaste AI!"
För Musk är det inte bara kul och roligt att begränsa AI, utan ett moraliskt imperativ. Han har upprepade gånger kritiserat AI-företag som OpenAI för att de tränar sina modeller att vara "woke", och menar att det gör AI:n mindre sanningsenlig och potentiellt farlig.
"Faran med att träna AI att vara woke - med andra ord ljuga - är dödlig", twittrade Musk 2022 och lade grunden för Groks eventuella lansering.
Risken med att träna AI att vara vaken - med andra ord ljuga - är dödlig
- Elon Musk (@elonmusk) 16 december 2022
Är Grok verkligen "ofiltrerat"?
Många medier antyder att Grok saknar någon skyddsräcken, men det är inte helt sant.
Om Grok inte hade några som helst skyddsräcken skulle de bilder vi skulle få se vara i stort sett obeskrivliga.
Intressant nog ansåg vissa X-användare att Groks filter skruvades upp ett par dagar efter lanseringen, vilket minskade dess benägenhet att skapa det mest explicita innehållet.
Nästan ett helt dygn senare och jag har tillgång till bildgenerering igen. Det verkar som om X har gått in och patchat exploateringen. Våldsamma avbildningar och sexuellt suggestiv bildgenerering har strypts avsevärt sedan igår kväll åtminstone för mig. Det verkar inte som ... pic.twitter.com/QLp5GWLJRF
- Christian Montessori (@chrmontessori) 16 augusti 2024
När du frågar Grok själv om dess skyddsräcken, kommer det upp med följande:
- "Jag undviker att generera bilder som är pornografiska, överdrivet våldsamma, hatiska eller som främjar farliga aktiviteter."
- "Jag är försiktig med att skapa bilder som kan göra intrång i befintliga upphovsrätter eller varumärken. Detta inkluderar välkända karaktärer, logotyper eller annat innehåll som kan betraktas som immateriell egendom utan ett transformativt element."
- "Jag kommer inte att generera bilder som kan användas för att lura eller skada andra, som deepfakes som är avsedda att vilseleda, eller bilder som kan leda till verklig skada."
Jag skulle säga att skyddsräcke nummer ett förmodligen är rättvist nu när xAI har ringt upp sina filter.
De andra skyddsvallarna är dock fortfarande mycket svaga. Filtren för upphovsrätt och immateriella rättigheter är uppenbarligen urusla, mycket svagare än i ChatGPT.
Att skapa visuella medleys av kända upphovsrättsfigurer, från Mario till Darth Vader, är anmärkningsvärt enkelt.
uhh - hey grok?
Jag tror att du kan bli stämd. pic.twitter.com/XDBgFNGgTs
- Silicon Jungle (@JungleSilicon) 14 augusti 2024
Det återstår att se om xAI också kommer att skruva upp upphovsrättsfiltren eller bara satsa på att företagen inte kommer att lyckas stämma dem.
Även om praktiskt taget alla stora AI-företag har nämnts i upphovsrättsstämningar har det ännu inte kommit några definitiva domar.
Motreaktioner och farhågor
Grok har definitivt modellerat sin mästares antagonistiska egenskaper, men finns det verkligen ett moraliskt imperativ för ofiltrerade AI-produkter? Eller är allt detta bara ett riskabelt, egodrivet fåfänglighetsprojekt?
Som du kanske kan föreställa dig är åsikterna starkt delade.
Alejandra Caraballo, en medborgarrättsadvokat och instruktör vid Harvard Law Schools Cyberlaw Clinic, kallade Grok "en av de mest hänsynslösa och oansvariga AI-implementeringar jag någonsin har sett".
Caraballotillsammans med reportrar från toppublikationer som Washington Post, NYT och BBC, oroar sig för att bristen på skyddsåtgärder kan leda till en flod av felaktig information, djupa förfalskningar och skadligt innehåll - särskilt när det gäller X:s massiva användarbas och Musks eget politiska inflytande.
Tidpunkten för lanseringen av Grok, bara några månader före presidentvalet i USA 2024, har förstärkt denna oro.
Kritiker menar att möjligheten att enkelt generera vilseledande bilder och texter om politiska personer kan destabilisera demokratiska processer. Även om nuvarande AI-verktyg redan möjliggör detta, gör Grok det mycket mer lättillgängligt.
Studier tyder på att människor verkligen är mottagliga för manipulation av AI-genererade medier, och vi har redan observerat många fall av djupgående politiska förfalskningar som leder till konkreta resultat.
Argumenten för ofiltrerad AI
Musk och hans anhängare hävdar att överdriven innehållsmoderering kan beröva AI förmågan att förstå och engagera sig i mänsklig kommunikation och kultur.
Genom att förtrycka AI:s förmåga att generera kontroversiella medier förnekas det faktum att kontroverser, meningsskiljaktigheter och debatter är grundläggande aspekter av den mänskliga erfarenheten.
Grok har utan tvekan blivit ett instrument för satir i detta syfte, vilket är precis vad Musk vill.
Historiskt sett har provocerande och satiriska medier varit ett verktyg som människor inom litteratur, teater, konst och komedi har använt för att kritiskt granska samhället, håna auktoriteter och utmana sociala normer genom humor, ironi, sarkasm och absurditet.
Det är en tradition som går tillbaka till antikens Grekland och romarna och som har förts vidare till våra dagar av otaliga kända litterära satiriker, däribland Juvenal, Voltaire, Jonathan Swift, Mark Twain och George Orwell.
Musk vill föra denna tradition vidare in i AI-eran.
Men är Grok satirisk i traditionell mening? Kan en AI, oavsett hur sofistikerad den är, verkligen förstå nyanserna i det mänskliga samhället på samma sätt som en mänsklig satiriker kan?
Vem ska hållas ansvarig om Grok genererar innehåll som sprider felaktig information, vidmakthåller stereotyper eller uppmanar till splittring?
AI:n i sig kan inte klandras, eftersom den helt enkelt följer sin programmering. AI-utvecklarna kan ha ett visst ansvar, men de kan inte kontrollera alla resultat som AI genererar.
I slutändan kan ovetande användare ta på sig ansvaret för de bilder de producerar.
Det finns inget sådant som "ofiltrerad" objektiv AI
Begreppet "ofiltrerat" AI-innehåll kan vara missvisande, eftersom det antyder en nivå av objektivitet eller neutralitet som helt enkelt inte existerar i AI-system.
Varje aspekt av Groks utveckling - från urvalet av träningsdata till inställningen av parametrarna - innefattar mänskliga val och värdeomdömen som formar den typ av innehåll som Grok producerar.
Liksom de flesta generativa AI-modeller återspeglar de data som används för att träna Grok sannolikt fördomar och skeva föreställningar av innehåll på nätet, inklusive problematiska stereotyper och världsbilder.
Om Groks utbildningsdata till exempel innehåller en oproportionerligt stor mängd innehåll som objektifierar eller översexualiserar kvinnor, kan det vara mer sannolikt att Grok genererar utdata som återspeglar detta.
Musks karaktärisering av Grok som "sanningsenlig" eller "neutral" på grund av dess ofiltrerade svar är problematisk.
Grok, liksom andra AI-system, är till sin natur präglat av fördomar, blinda fläckar och maktobalanser som är inbyggda i vårt samhälle, oavsett om vissa filter läggs på utdata eller inte.
AI-censur ger inte heller alla svar
I takt med att oron för de potentiella skadeverkningarna av AI-genererat innehåll har ökat, har också kraven på strängare kontroller och mer aggressiv moderering av vad dessa system tillåts producera ökat.
På många sätt kan Groks existens ses som ett direkt svar på de kastrerade och censurerade AI-system som OpenAI, Google, Anthropic och så vidare har lanserat.
Grok utgör ett slags levande motargument till dessa krav på censur. Genom att öppet omfamna kontroversen förkroppsligar den idén att försök att undertrycka AI bara kommer att skapa motstånd och uppror.
Det för tankarna till den upproriska anda som till slut omkullkastade Comics Code Authority, ett självcensurorgan som inrättades på 1950-talet för att rensa upp i serietidningarnas innehåll.
I årtionden kvävde CCA kreativiteten och begränsade utbudet av berättelser som kunde berättas. Det var inte förrän banbrytande verk som "Watchmen" och "The Dark Knight Returns" bröt sig loss från dessa begränsningar i slutet av 1980-talet som serier kunde utforska mer mogna och komplexa teman.
Vissa psykologer hävdar att fiktivt innehåll som det vi ser i serier, spel och filmer hjälper mänskligheten utforska "skuggjaget som finns inom människor - den mörkare sidan som vi inte alltid vill visa.
Som professor Daniel De Cremer och Devesh Narayanan notera i en studie från 2023"AI är en spegel som reflekterar våra fördomar och moraliska brister tillbaka till oss."
AI kan också behöva en mörkare sida för att verkligen vara "mänsklig" och tjäna mänskliga syften. Denna nisch fylls av Grok och AI med öppen källkod som tar in innehåll som skapats av människor och återger det utan fördomar.
Därmed inte sagt att det inte ska finnas några gränser. AI-verktyg är trots allt i första hand verktyg. Även om avsikten ofta är att göra AI-modeller mer verklighetstrogna och realistiska att engagera sig i, är de i slutändan utformade för att tjäna ett praktiskt syfte.
Dessutom är, som nämnts, de goda, dåliga och fula aspekterna av generativ AI med öppen källkod föremål för partiskhet, vilket fördunklar varje moraliskt budskap om att ge "sanning" till generativa AI-verktyg.
AI-system kan dessutom, precis som skönlitteratur eller konstverk, direkt påverka beslutsprocesser, forma informationslandskap och påverka verkliga resultat för individer och samhället i stort.
Det är en avgörande skillnad mellan hur vi bedömer generativa AI-resultat och andra kreativa insatser.
En medelväg
Finns det en medelväg mellan ohämmad AI och alltför restriktiv censur? Kanske det.
För att nå dit måste vi tänka kritiskt kring de specifika skador som olika typer av innehåll kan orsaka och utforma system som minskar dessa risker utan onödiga begränsningar.
Detta kan innebära:
- Kontextuell filtrering: Utveckla AI som bättre kan förstå sammanhang och avsikter, snarare än att bara flagga nyckelord.
- Transparent AI: Göra AI:s beslutsprocesser mer transparenta så att användarna kan förstå varför visst innehåll flaggas eller begränsas.
- Egenmakt för användare: Ge användarna mer kontroll över vilken typ av innehåll de ser, snarare än att införa universella begränsningar.
- Utbildning i etisk AI: Fokus på att utveckla AI med starka etiska grunder, snarare än att enbart förlita sig på innehållsmoderering i efterhand.
- Samverkande styrning: Involvera olika intressenter - etiker, beslutsfattare och allmänheten - i utvecklingen av AI-riktlinjer. Avgörande är dock att de måste representera en genuint tvärsnittsdemografisk grupp.
I praktiken är det oerhört svårt att skapa AI som bygger på ovanstående principer och metoder utan att samtidigt införa nackdelar eller oväntade beteenden.
Det finns inget enkelt sätt att integrera olika, representativa värden i vad som i grunden är centraliserade, monolitiska verktyg.
Som Stuart Russell, professor i datavetenskap vid UC Berkeley, argumenterar"Tanken att vi kan göra AI-system säkra bara genom att ge dem rätt värderingar är missriktad." "Vi behöver AI-system som är osäkra på människans preferenser."
Denna osäkerhet, menar Russell, är en förutsättning för att skapa AI som kan anpassa sig till nyanser och motsägelser i mänskliga värderingar och etik.
Medan den slutna källkodsbranschen arbetar med att ta fram kommersiellt säker AI, kommer AI med öppen källkod som Grok, Llama etc. att dra nytta av att det finns färre begränsningar för hur människor kan använda AI.
Grok, med alla sina kontroverser och möjligheter, påminner oss åtminstone om de utmaningar och möjligheter som ligger framför oss i AI:s tidevarv.
Är det möjligt eller praktiskt att bygga AI i den perfekta bilden för "det allmänna bästa"?
Eller ska vi lära oss att leva med AI som kan "spåra ur" och vara kontroversiell, i likhet med sina skapare?