Groks bildegenerator skaper enorm kontrovers, men hvor farlig er den egentlig?

17. august 2024

  • Elon Musks åpen kildekode-modell Grok fikk muligheten til å generere bilder
  • Dette oversvømmet internett med morsomme, merkelige og eksplisitte AI-bilder
  • Bør vi være bekymret for Grok? Eller har "ufiltrert AI" sine fortrinn?
grok

Groks bildegenerator har skapt store overskrifter og utløst enorm kritikk for å muliggjøre upassende, eksplisitte og manipulerende former for bruk av kunstig intelligens. 

Når Musk grunnla AI-virksomheten xAI i 2023sa han at målet var å "forstå universet". 

Spol frem til i dag, og den kosmiske ambisjonen har på sett og vis krasjlandet på jorden.

Grok, xAIs første og eneste produkt, har likevel klart å sende sjokkbølger gjennom AI-miljøet og samfunnet for øvrig - bare kanskje ikke helt på den måten xAI-teamet hadde sett for seg.

Grok ble lansert i 2023 og skiller seg fra konkurrenter som OpenAIs ChatGPT eller Googles Bard på ett viktig punkt - mangelen på tradisjonelle innholdsfiltre. 

Nå kan Grok, med sine nye bildegenereringsfunksjoner som ChatGPTs DALL-E, bruke sin ufiltrerte natur i en verden av visuelle bilder. 

Fra surrealistiske avbildninger av Donald Trump som vugger en gravid Kamala Harris til bisarre mashups av Darth Vader som kysser prinsesse Peach, har Grok sluppet løs en strøm av merkelige og provoserende bilder som avslører både den ufiltrerte naturen til det indre arbeidet og brukernes fantasi.

Musk fremhever dette som et salgsargument, og kaller Grok "den morsomste AI-en i verden!"

For Musk er det å begrense restriksjoner på AI ikke bare moro og spill, men et moralsk imperativ. Han har gjentatte ganger kritisert AI-selskaper som OpenAI for å trene opp modellene sine til å være "våkne", og hevdet at det gjør AI-en mindre sannferdig og potensielt farlig.

"Faren ved å lære opp AI til å være våken - med andre ord lyve - er livsfarlig", tvitret Musk i 2022, og la dermed grunnlaget for Groks eventuelle lansering. 

Er Grok virkelig "ufiltrert"?

Mange medier antyder at Grok mangler noen rekkverk, men det er ikke helt sant. 

Hvis Grok ikke hadde hatt noen som helst form for sikkerhetsmekanismer, ville vi fått se bilder som var helt ubeskrivelige. 

Interessant nok følte noen X-brukere at Groks filtre ble skrudd opp et par dager etter lanseringen, noe som dempet dens tilbøyelighet til å skape det mest eksplisitte innholdet. 

Når du spør Grok selv om hva som er dens beskyttelseslinjer, får du følgende svar:

  • "Jeg unngår å generere bilder som er pornografiske, overdrevent voldelige, hatefulle eller som fremmer farlige aktiviteter."
  • "Jeg er forsiktig med å lage bilder som kan krenke eksisterende opphavsrettigheter eller varemerker. Dette omfatter velkjente figurer, logoer eller annet innhold som kan anses som åndsverk uten et transformativt element."
  • "Jeg vil ikke generere bilder som kan brukes til å lure eller skade andre, for eksempel deepfakes som er ment å villede, eller bilder som kan føre til skade i den virkelige verden."

Jeg vil si at rekkverk nummer én sannsynligvis er rettferdig nå som xAI har skrudd opp filtrene sine. 

De andre rekkverkene er imidlertid fortsatt svært svake. Filtrene for opphavsrett og immaterielle rettigheter er tydeligvis elendige, og mye svakere enn i ChatGPT.

Det er bemerkelsesverdig enkelt å lage visuelle medleyer av kjente copyright-figurer, fra Mario til Darth Vader. 

Det gjenstår å se om xAI også vil skru opp opphavsrettsfiltrene, eller bare satse på at selskapene ikke vil lykkes med å saksøke dem.

Selv om så godt som alle store AI-selskaper har blitt navngitt i søksmål om opphavsrett, er det ennå ikke kommet noen endelige avgjørelser.

Motreaksjoner og bekymringer

Grok har definitivt modellert sin herres antagonistiske egenskaper, men er det virkelig et moralsk imperativ for ufiltrerte AI-produkter? Eller er alt dette bare et risikabelt, egodrevet forfengelighetsprosjekt?

Som du kanskje kan forestille deg, er meningene sterkt delte.

Alejandra Caraballo, borgerrettsadvokat og instruktør ved Harvard Law School's Cyberlaw Clinic, kalte Grok "en av de mest hensynsløse og uansvarlige AI-implementeringene jeg noen gang har sett". 

Caraballosammen med journalister fra topp-publikasjoner som Washington Post, NYT og BBC, er bekymret for at mangelen på sikkerhetstiltak kan føre til en flom av feilinformasjon, forfalskninger og skadelig innhold - spesielt med tanke på Xs enorme brukerbase og Musks egen politiske innflytelse.

Tidspunktet for lanseringen av Grok, bare noen måneder før presidentvalget i USA i 2024, har forsterket disse bekymringene. 

Kritikere hevder at muligheten til enkelt å generere villedende bilder og tekst om politiske personer kan destabilisere demokratiske prosesser. Selv om dagens AI-verktøy allerede muliggjør dette, gjør Grok det langt mer tilgjengelig. 

Studier indikerer at folk faktisk er mottakelige for manipulasjon av AI-genererte medier, og vi har allerede observert en rekke tilfeller av dyp politisk forfalskning som resulterer i konkrete resultater

Argumenter for ufiltrert AI

Musk og hans støttespillere hevder at overdreven moderering av innhold kan frata AI evnen til å forstå og engasjere seg i menneskelig kommunikasjon og kultur.

Ved å undertrykke AIs evne til å generere kontroversielle medier fornekter man det faktum at kontroverser, uenighet og debatt er grunnleggende aspekter ved den menneskelige erfaringen.

Grok har utvilsomt blitt et satirisk instrument for disse formålene, og det er akkurat det Musk ønsker.

Historisk sett har provoserende, satiriske medier vært et verktøy som mennesker har brukt i litteratur, teater, kunst og komedie for å kritisere samfunnet, gjøre narr av autoriteter og utfordre sosiale normer gjennom humor, ironi, sarkasme og absurditet. 

Det er en tradisjon som går tilbake til antikkens Hellas og romerne, og som er videreført til i dag av utallige kjente litterære satirikere, blant andre Juvenal, Voltaire, Jonathan Swift, Mark Twain og George Orwell.

Musk ønsker å videreføre denne tradisjonen inn i AI-æraen.

Men er Grok satirisk i tradisjonell forstand? Kan en kunstig intelligens, uansett hvor sofistikert den er, virkelig forstå nyansene i det menneskelige samfunnet på samme måte som en menneskelig satiriker kan?

Hvem skal holdes ansvarlig hvis Grok genererer innhold som sprer feilinformasjon, opprettholder stereotypier eller oppfordrer til splittelse?

Den kunstige intelligensen kan ikke klandres, da den bare følger programmeringen sin. AI-utviklerne kan ha et visst ansvar, men de kan ikke kontrollere alle resultater AI-en genererer.

Til slutt kan uvitende brukere påta seg ansvar for bildene de produserer.

Det finnes ikke noe slikt som "ufiltrert" objektiv AI

Begrepet "ufiltrert" AI-innhold kan være misvisende, ettersom det antyder en grad av objektivitet eller nøytralitet som rett og slett ikke finnes i AI-systemer.

Alle aspekter av Groks utvikling - fra valg av opplæringsdata til innstilling av parametere - involverer menneskelige valg og verdivurderinger som former innholdet som Grok produserer.

Som de fleste generative AI-modeller gjenspeiler dataene som brukes til å trene Grok, sannsynligvis skjevheter og skjeve fremstillinger av nettinnhold, inkludert problematiske stereotypier og verdensbilder.

Hvis Groks opplæringsdata for eksempel inneholder en uforholdsmessig stor mengde innhold som objektiverer eller overseksualiserer kvinner, kan det være mer sannsynlig at den genererer resultater som gjenspeiler dette.

Musks karakteristikk av Grok som "sannferdig" eller "nøytral" i kraft av sine ufiltrerte svar er problematisk.

Grok, i likhet med andre AI-systemer, er iboende formet av fordommer, blinde flekker og maktubalanse i samfunnet vårt, uavhengig av om det legges inn visse filtre på utdataene eller ikke.

AI-sensur gir heller ikke alle svarene

I takt med at bekymringene for de potensielle skadevirkningene av AI-generert innhold har vokst, har også kravene om strengere kontroll og mer aggressiv moderering av hva disse systemene får lov til å produsere, økt.

På mange måter kan Groks eksistens ses på som et direkte svar på de kastrerte, sensurerte AI-systemene som lanseres av OpenAI, Google, Anthropic og så videre.

Grok står som et slags levende motargument mot disse oppfordringene til sensur. Ved å åpent omfavne kontroversen, legemliggjør den ideen om at forsøk på å undertrykke AI bare vil avle motstand og opprør.

Det minner om den opprørske ånden som til slutt veltet Comics Code Authority, et selvsensurorgan som ble opprettet på 1950-tallet for å renvaske innholdet i tegneserier.

I flere tiår kvelte CCA kreativiteten og begrenset utvalget av historier som kunne fortelles. Det var først da banebrytende verk som "Watchmen" og "The Dark Knight Returns" brøt seg løs fra disse begrensningene på slutten av 1980-tallet, at tegneserier kunne utforske mer modne og komplekse temaer.

Noen psykologer hevder at fiktivt innhold som det vi ser i tegneserier, spill og filmer, hjelper menneskeheten utforsk "skyggeselvet som ligger i oss mennesker - den mørkere siden vi ikke alltid ønsker å vise frem.

Som professor Daniel De Cremer og Devesh Narayanan note i en studie fra 2023"AI er et speil som reflekterer våre fordommer og moralske brister tilbake til oss."

AI kan også trenge en mørkere side for å være virkelig "menneskelig" og tjene menneskelige formål. Dette nisjefeltet fylles av Grok og åpen kildekode-KI-er som tar til seg menneskeskapt innhold og spyr det ut igjen uten fordommer.  

Det betyr imidlertid ikke at det ikke skal være noen grenser. AI-verktøy er tross alt først og fremst verktøy. Selv om hensikten ofte er å gjøre AI-modeller mer naturtro og realistiske, er de til syvende og sist utformet for å tjene et praktisk formål.

I tillegg er som nevnt de gode, dårlige og stygge aspektene ved generativ AI med åpen kildekode gjenstand for forutinntatthet, noe som forkludrer ethvert moralsk budskap om å bringe "sannhet" til generative AI-verktøy.

I likhet med skjønnlitterære verk eller kunstverk kan AI-systemer dessuten påvirke beslutningsprosesser direkte, forme informasjonslandskaper og påvirke utfallet i den virkelige verden for enkeltpersoner og samfunnet som helhet.

Det er et avgjørende skille mellom hvordan vi bedømmer generativ AI og andre kreative aktiviteter.

Middelveien

Finnes det en mellomting mellom ubegrenset kunstig intelligens og altfor restriktiv sensur? Kanskje.

For å komme dit må vi tenke kritisk gjennom de spesifikke skadene ulike typer innhold kan forårsake, og utforme systemer som reduserer risikoen uten unødvendige begrensninger.

Dette kan innebære:

  1. Kontekstuell filtrering: Utvikle kunstig intelligens som bedre kan forstå kontekst og intensjon, i stedet for bare å flagge søkeord.
  2. Gjennomsiktig AI: Gjør beslutningsprosessene for kunstig intelligens mer gjennomsiktige, slik at brukerne kan forstå hvorfor bestemt innhold flagges eller begrenses.
  3. Myndiggjøring av brukerne: Gi brukerne mer kontroll over hvilken type innhold de ser, i stedet for å innføre universelle begrensninger.
  4. Etisk opplæring i kunstig intelligens: Fokus på å utvikle kunstig intelligens med et sterkt etisk fundament, i stedet for å basere seg utelukkende på post-hoc innholdsmoderering.
  5. Samarbeidsbasert styring: Involvering av ulike interessenter - etikere, beslutningstakere og publikum - i utviklingen av retningslinjer for kunstig intelligens. Det er imidlertid avgjørende at de representerer et bredt tverrsnitt av befolkningen. 

I praksis er det svært vanskelig å skape kunstig intelligens som bygger på de ovennevnte prinsippene og praksisene uten å introdusere ulemper eller uventet atferd.

Det finnes ingen enkel måte å bygge inn mangfoldige, representative verdier i det som egentlig er sentraliserte, monolittiske verktøy. 

Som Stuart Russell, professor i informatikk ved UC Berkeley, argumenterer"Ideen om at vi kan gjøre AI-systemer trygge bare ved å gi dem de rette verdiene, er misforstått." "Vi trenger AI-systemer som er usikre på menneskelige preferanser."

Denne usikkerheten, mener Russell, er avgjørende for å skape kunstig intelligens som kan tilpasse seg nyanser og motsetninger i menneskelige verdier og etikk. 

Mens det lukkede kildekodemiljøet jobber med å produsere kommersielt trygg AI, vil åpen kildekode-AI som Grok, Llama osv. tjene på å legge færre begrensninger på hvordan folk kan bruke AI.

Grok, med alle sine kontroverser og muligheter, minner oss i det minste om utfordringene og mulighetene som ligger foran oss i AI-tidsalderen. 

Er det mulig eller praktisk å bygge kunstig intelligens i det perfekte bildet for "det større gode"?

Eller skal vi lære oss å leve med kunstig intelligens som kan "spinne av sporet" og være kontroversiell, i likhet med sine skapere?

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser