Groks billedgenerator skaber enorm kontrovers, men hvor farlig er den egentlig?

17. august 2024

  • Elon Musks open source-model Grok har fået evnen til at generere billeder
  • Dette oversvømmede internettet med sjove, mærkelige og eksplicitte AI-billeder
  • Bør vi være bekymrede for Grok? Eller har 'ufiltreret AI' sine fordele?
Grok

Groks billedgenerator har taget overskrifterne og skabt enorm kritik for at muliggøre upassende, eksplicitte og manipulerende former for brug af AI. 

Når Musk grundlagde sin AI-startup xAI i 2023sagde han, at målet var at "forstå universet". 

Spol frem til i dag, og den kosmiske ambition er på en måde styrtet ned på jorden igen.

Alligevel formår Grok, xAI's første og eneste produkt, stadig at sende chokbølger gennem AI-samfundet og samfundet som helhed. - bare måske ikke helt på den måde, som xAI-teamet havde forestillet sig.

Grok udkom første gang i 2023 og adskiller sig fra konkurrenter som OpenAI's ChatGPT eller Googles Bard på ét vigtigt punkt - manglen på traditionelle indholdsfiltre. 

Nu kan Grok, bevæbnet med sine nye billedgenereringsfunktioner som ChatGPT's DALL-E, anvende sin ufiltrerede natur i en verden af visuelle billeder. 

Fra surrealistiske afbildninger af Donald Trump, der vugger en gravid Kamala Harris, til bizarre mashups af Darth Vader, der kysser prinsesse Peach, har Grok udløst en strøm af mærkelige og provokerende billeder, der afslører både den ufiltrerede natur af dens indre arbejde såvel som brugernes fantasi.

Musk fremhæver dette som et salgsargument og kalder Grok for "den sjoveste AI i verden!"

For Musk er det at begrænse restriktioner på AI ikke bare sjov og ballade, men en moralsk nødvendighed. Han har gentagne gange kritiseret AI-virksomheder som OpenAI for at træne deres modeller til at være "vågne" og hævdet, at det gør AI'en mindre sandfærdig og potentielt farlig.

"Faren ved at træne AI til at være vågen - med andre ord lyve - er dødbringende", tweetede Musk i 2022 og lagde op til Groks endelige udgivelse. 

Er Grok virkelig 'ufiltreret'?

Mange medier antyder, at Grok mangler nogen rækværk, men det er ikke helt sandt. 

Hvis Grok ikke havde nogen form for sikkerhedsnet, ville de billeder, vi ville se, være helt ubeskrivelige. 

Interessant nok følte nogle X-brugere, at Groks filtre blev skruet op et par dage efter udgivelsen, hvilket begrænsede dens tilbøjelighed til at skabe det mest eksplicitte indhold. 

Når man spørger Grok selv om dens beskyttelseslinjer, kommer den med følgende:

  • "Jeg undgår at generere billeder, der er pornografiske, overdrevent voldelige, hadefulde, eller som fremmer farlige aktiviteter."
  • "Jeg er forsigtig med at skabe billeder, der kan krænke eksisterende ophavsrettigheder eller varemærker. Dette omfatter velkendte figurer, logoer eller andet indhold, der kan betragtes som intellektuel ejendom uden et transformerende element."
  • "Jeg vil ikke generere billeder, der kan bruges til at bedrage eller skade andre, som f.eks. deepfakes, der er beregnet til at vildlede, eller billeder, der kan føre til skade i den virkelige verden."

Jeg ville sige, at værn nummer et nok er rimeligt, nu hvor xAI har skruet op for sine filtre. 

De andre gelændere er dog stadig meget svage. Filtrene for ophavsret og intellektuel ejendomsret er tydeligvis forfærdelige, meget svagere end i ChatGPT.

Det er bemærkelsesværdigt ligetil at skabe visuelle medleys af berømte copyright-figurer, fra Mario til Darth Vader. 

Det er endnu uvist, om xAI også vil skrue op for ophavsretsfiltrene eller bare satse på, at virksomhederne ikke får held til at sagsøge dem.

Selv om stort set alle store AI-virksomheder er blevet nævnt i retssager om ophavsret, er der endnu ikke kommet endelige afgørelser.

Modreaktioner og bekymringer

Grok har helt sikkert modelleret sin herres antagonistiske kvaliteter, men er der virkelig en moralsk nødvendighed for ufiltrerede AI-produkter? Eller er det hele bare et risikabelt, egodrevet forfængelighedsprojekt?

Som du måske kan forestille dig, er meningerne stærkt delte.

Alejandra Caraballo, borgerrettighedsadvokat og instruktør ved Harvard Law School's Cyberlaw Clinic, kaldte Grok "en af de mest hensynsløse og uansvarlige AI-implementeringer, jeg nogensinde har set". 

Caraballosammen med journalister fra toppublikationer som Washington Post, NYT og BBC, er bekymrede for, at de manglende sikkerhedsforanstaltninger kan føre til en strøm af misinformation, forfalskninger og skadeligt indhold - især i forbindelse med X's massive brugerbase og Musks egen politiske indflydelse.

Tidspunktet for Groks udgivelse, kun få måneder før det amerikanske præsidentvalg i 2024, har forstærket disse bekymringer. 

Kritikere hævder, at muligheden for nemt at generere vildledende billeder og tekst om politiske personer kan destabilisere demokratiske processer. Mens nuværende AI-værktøjer allerede muliggør dette, gør Grok det langt mere tilgængeligt. 

Studier indikerer, at folk faktisk er modtagelige for manipulation af AI-genererede medier, og vi har allerede observeret adskillige tilfælde af dyb politisk faking som resulterer i håndgribelige resultater

Argumenter for ufiltreret AI

Musk og hans tilhængere hævder, at overdreven indholdsmoderation kan fratage AI evnen til at forstå og engagere sig i menneskelig kommunikation og kultur.

Når man undertrykker AI's evne til at skabe kontroversielle medier, benægter man, at kontroverser, uenighed og debat er grundlæggende aspekter af den menneskelige oplevelse.

Grok er utvivlsomt blevet et satirisk instrument til disse formål, hvilket er præcis, hvad Musk ønsker.

Historisk set har provokerende, satiriske medier været et redskab, som mennesker i litteratur, teater, kunst og komedie har brugt til at undersøge samfundet kritisk, håne autoriteter og udfordre sociale normer gennem humor, ironi, sarkasme og absurditet. 

Det er en tradition, der går tilbage til det antikke Grækenland og romerne, og som er ført videre til i dag af utallige berømte litterære satirikere, herunder Juvenal, Voltaire, Jonathan Swift, Mark Twain og George Orwell.

Musk ønsker at føre denne tradition videre ind i AI-æraen.

Men er Grok satirisk i traditionel forstand? Kan en AI, uanset hvor sofistikeret den er, virkelig forstå nuancerne i det menneskelige samfund på samme måde, som en menneskelig satiriker kan?

Hvem skal holdes ansvarlig, hvis Grok genererer indhold, der spreder misinformation, fastholder stereotyper eller opildner til splittelse?

AI'en selv kan ikke bebrejdes, da den blot følger sin programmering. AI-udviklerne har måske et vist ansvar, men de kan ikke kontrollere alle de resultater, som AI'en genererer.

I sidste ende kan uvidende brugere påtage sig ansvaret for de billeder, de producerer.

Der er ikke noget, der hedder 'ufiltreret' objektiv AI

Begrebet "ufiltreret" AI-indhold kan være misvisende, da det antyder et niveau af objektivitet eller neutralitet, som simpelthen ikke findes i AI-systemer.

Hvert aspekt af Groks udvikling - fra udvælgelsen af træningsdata til indstillingen af parametrene - involverer menneskelige valg og værdidomme, som former den type indhold, den producerer.

Som de fleste generative AI-modeller afspejler de data, der bruges til at træne Grok, sandsynligvis de Fordomme og skæve repræsentationer af onlineindhold, herunder problematiske stereotyper og verdensbilleder.

Hvis Groks træningsdata f.eks. indeholder en uforholdsmæssig stor mængde indhold, der objektiverer eller overseksualiserer kvinder, kan det være mere sandsynligt, at den genererer output, der afspejler det.

Musks karakteristik af Grok som 'sandfærdig' eller 'neutral' i kraft af dens ufiltrerede svar er problematisk.

Grok er ligesom andre AI-systemer i sagens natur formet af fordomme, blinde vinkler og magtubalancer, der er indlejret i vores samfund, uanset om der er lagt visse filtre på outputtet eller ej.

AI-censur giver heller ikke alle svarene

I takt med at bekymringen for de potentielle skader ved AI-genereret indhold er vokset, er kravene om strengere kontrol og mere aggressiv moderering af, hvad disse systemer får lov til at producere, også vokset.

På mange måder kan selve Groks eksistens ses som en direkte reaktion på de kastrerede, censurerede AI-systemer, som OpenAI, Google, Anthropic og så videre har lanceret.

Grok står som en slags levende modargument til disse opfordringer til censur. Ved åbent at omfavne kontroversen legemliggør den ideen om, at forsøg på at undertrykke AI kun vil skabe modstand og oprør.

Det minder om den oprørske ånd, der til sidst væltede Comics Code Authority, et selvcensurerende organ, der blev oprettet i 1950'erne for at rense tegneserieindholdet.

I årtier kvalte CCA kreativiteten og begrænsede udvalget af historier, der kunne fortælles. Det var først, da banebrydende værker som "Watchmen" og "The Dark Knight Returns" brød fri af disse begrænsninger i slutningen af 1980'erne, at tegneserier kunne udforske mere modne og komplekse temaer.

Nogle psykologer hævder, at fiktivt indhold som det, vi ser i tegneserier, spil og film, hjælper menneskeheden Udforsk 'skyggeselvet' der ligger i mennesker - den mørke side, som vi ikke altid ønsker at vise.

Som professor Daniel De Cremer og Devesh Narayanan bemærk i en undersøgelse fra 2023"AI er et spejl, der reflekterer vores fordomme og moralske fejl tilbage til os."

AI kan også have brug for en mørkere side for at være virkelig "menneskelig" og tjene menneskelige formål. Dette nicheområde udfyldes af Grok og open source AI'er, der indtager menneskeskabt indhold og gengiver det uden fordomme.  

Det betyder dog ikke, at der ikke skal være nogen grænser. AI-værktøjer er trods alt primært værktøjer. Selv om hensigten ofte er at gøre AI-modeller mere livagtige og realistiske, er de i sidste ende designet til at tjene et praktisk formål.

Og som nævnt er de gode, dårlige og grimme aspekter af open source generativ AI udsat for bias, hvilket forplumrer ethvert moralsk budskab om at bringe 'sandhed' til generative AI-værktøjer.

Desuden kan AI-systemer, ligesom fiktions- eller kunstværker, direkte påvirke beslutningsprocesser, forme informationslandskaber og påvirke resultater i den virkelige verden for enkeltpersoner og samfundet som helhed.

Det er en afgørende forskel på, hvordan vi bedømmer generative AI-resultater i forhold til andre kreative bestræbelser.

Den gyldne middelvej

Er der en mellemvej mellem uhæmmet AI og alt for restriktiv censur? Måske.

For at nå dertil er vi nødt til at tænke kritisk over de specifikke skader, som forskellige typer indhold kan forårsage, og designe systemer, der mindsker disse risici uden unødvendige begrænsninger.

Det kan indebære:

  1. Kontekstuel filtrering: Udvikling af AI, der bedre kan forstå kontekst og hensigt i stedet for blot at markere søgeord.
  2. Gennemsigtig AI: Gør AI-beslutningsprocesser mere gennemsigtige, så brugerne kan forstå, hvorfor bestemt indhold er markeret eller begrænset.
  3. Empowerment af brugerne: At give brugerne mere kontrol over den type indhold, de ser, i stedet for at indføre universelle begrænsninger.
  4. Etisk AI-træning: Fokus på at udvikle AI med et stærkt etisk fundament i stedet for udelukkende at forlade sig på post-hoc indholdsmoderering.
  5. Samarbejdsbaseret ledelse: Inddragelse af forskellige interessenter - etikere, beslutningstagere og offentligheden - i udviklingen af retningslinjer for kunstig intelligens. Det er dog afgørende, at de repræsenterer en virkelig tværsnitlig demografi. 

I praksis er det usædvanligt svært at skabe AI, der integrerer ovenstående principper og praksisser uden også at introducere ulemper eller uventet adfærd.

Der er ingen enkel måde at indlejre forskellige, repræsentative værdier i det, der i bund og grund er centraliserede, monolitiske værktøjer. 

Som Stuart Russell, der er professor i datalogi ved UC Berkeley, argumenterer"Ideen om, at vi kan gøre AI-systemer sikre ved blot at indgyde dem de rigtige værdier, er misforstået". "Vi har brug for AI-systemer, der er usikre på menneskelige præferencer."

Denne usikkerhed, mener Russell, er afgørende for at skabe AI, der kan tilpasse sig nuancer og modsigelser i menneskelige værdier og etik. 

Mens closed source-samfundet arbejder på at producere kommercielt sikker AI, vil open source-AI som Grok, Llama osv. tjene på at lægge færre begrænsninger på, hvordan folk kan bruge AI.

Grok, med alle sine kontroverser og muligheder, minder os i det mindste om de udfordringer og muligheder, der ligger forude i AI's tidsalder. 

Er det muligt eller praktisk at bygge AI i det perfekte billede for 'det større gode'?

Eller skal vi lære at leve med kunstig intelligens, der kan 'køre af sporet' og være kontroversiel, ligesom dens skabere?

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser