Google AI-oversikt: Pytoner er pattedyr og andre tabber

25. mai 2024

  • Googles AI-oversiktsfunksjon gjør pinlige tabber og faktafeil
  • Det kan være fordi den hallusinerer eller tar informasjon fra uvanlige kilder
  • Google har erkjent problemet og uttalt at de undersøker det

Googles nylig lanserte AI Overview-funksjon, som har som mål å gi brukerne AI-genererte sammendrag av søkeresultater, har blitt kritisert for å levere villedende, unøyaktige og noen ganger direkte bisarre svar. 

Funksjonen, som nå rulles ut til milliarder etter at Google doblet det på den nylige Google I/O-utviklerkonferansehar blitt gjenstand for mye hån og bekymring på sosiale medier, etter hvert som brukerne har vist eksempler på AI-ens tabber.

Det var bare et spørsmål om tid. Menneskelig nysgjerrighet blir bedre av AI-sperrer på en eller annen måte. 

Både journalister og vanlige brukere har tatt til X og andre plattformer for å fremheve tilfeller der AI Overview-funksjonen har sitert tvilsomme kilder, for eksempel satiriske artikler fra The Onion eller spøkinnlegg på Reddit, som om de var fakta. 

I et av de mer alarmerende tilfellene demonstrerte dataforskeren Melanie Mitchell et eksempel der funksjonen viste en konspirasjonsteori som antydet at tidligere president Barack Obama er muslim, tilsynelatende som et resultat av at den kunstige intelligensen feiltolket informasjon fra en forskningsplattform fra Oxford University Press.

Andre eksempler på AI-ens feil er at den plagierer tekst fra blogger uten å fjerne personlige referanser til forfatternes barn, unnlater å anerkjenne eksistensen av afrikanske land som begynner med bokstaven "K", og til og med antyder at pytoner er pattedyr. 

Noen av disse unøyaktige resultatene, som konspirasjonsteorien om Obama eller forslaget om å ha lim på pizza, viser ikke lenger et AI-sammendrag, men i stedet artikler som refererer til AI-ens faktaproblemer.

Men nå spør folk seg om AI Overview noen gang kan tjene sitt formål på riktig måte. 

Google har allerede erkjent problemet, og en talsperson for selskapet sier The Verge at feilene dukket opp på "generelt svært uvanlige spørsmål og ikke er representative for de fleste menneskers erfaringer." 

Den eksakte årsaken til problemet er imidlertid fortsatt uklar. Det kan skyldes AI-ens tendens til å "hallusinere".

Eller det kan stamme fra kildene Google bruker til å generere sammendrag, for eksempel satiriske artikler eller trollinnlegg på sosiale medier.

I et intervju med The Verge tok Google-sjef Sundar Pichai opp spørsmålet om AI-hallusinasjoner, og erkjente at de er et "uløst problem", men uten å gi noen tidslinje for en løsning. 

Dette er ikke første gang Google møter kritikk for sine AI-produkter. Tidligere i år ble selskapets Gemini AI, en konkurrent til OpenAIs ChatGPT og DALL-E, kritisert for å generere historisk unøyaktige bilder, blant annet av nazioffiserer med ulike raser, hvite kvinnelige presidenter og en kvinnelig pave. 

Som svar ba Google senere offentlig om unnskyldning og midlertidig suspendert Geminis evne til å generere bilder av mennesker.

AI Overview har også blitt kritisert av nettstedseiere og i markedsføringsmiljøet, ettersom det truer med å flytte brukerne fra å samhandle med tradisjonelle søkemotorresultater til å bare stole på AI-genererte utdrag.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser