Google AI-oversigt: pytonslanger er pattedyr og andre brølere

25. maj 2024

  • Googles AI-oversigtsfunktion laver pinlige bommerter og faktuelle fejl
  • Det kan være, fordi den hallucinerer eller får information fra usædvanlige kilder.
  • Google har anerkendt problemet og sagt, at de undersøger det.

Googles nyligt lancerede AI-oversigtsfunktion, som har til formål at give brugerne AI-genererede resuméer af søgeresultater, er blevet kritiseret for at levere vildledende, unøjagtige og nogle gange ligefrem bizarre svar. 

Funktionen, der nu rulles ud til milliarder, efter at Google fordoblede det på den nylige Google I/O-udviklerkonferenceer blevet genstand for udbredt hån og bekymring på de sociale medier, hvor brugerne har vist eksempler på AI'ens fejl.

Det var kun et spørgsmål om tid. Menneskelig nysgerrighed får på den ene eller anden måde bugt med AI-skærmene. 

Både journalister og almindelige brugere har brugt X og andre platforme til at fremhæve tilfælde, hvor AI Overview-funktionen har citeret tvivlsomme kilder, som f.eks. satiriske artikler fra The Onion eller vittighedsindlæg på Reddit, som om de var faktuelle. 

I et af de mere alarmerende tilfælde demonstrerede datalog Melanie Mitchell et eksempel på, at funktionen viste en konspirationsteori, der antydede, at tidligere præsident Barack Obama er muslim, tilsyneladende som et resultat af, at AI'en fejlfortolkede oplysninger fra en forskningsplatform fra Oxford University Press.

Andre eksempler på AI'ens fejl omfatter plagiering af tekst fra blogs uden at fjerne personlige referencer til forfatternes børn, manglende anerkendelse af eksistensen af afrikanske lande, der starter med bogstavet "K", og endda antydning af, at pytonslanger er pattedyr. 

Nogle af disse unøjagtige resultater, såsom Obamas konspirationsteori eller forslaget om at putte lim på pizza, viser ikke længere et AI-resumé, men i stedet artikler, der henviser til AI'ens faktuelle problemer.

Men folk spekulerer nu på, om AI Overview nogensinde kan tjene sit formål korrekt. 

Google har allerede anerkendt problemet, og en talsmand for virksomheden fortæller The Verge at fejlene optrådte på "generelt meget usædvanlige forespørgsler og ikke er repræsentative for de fleste menneskers oplevelser." 

Den nøjagtige årsag til problemet er dog stadig uklar. Det kan skyldes AI'ens tendens til at "hallucinere".

Eller det kan stamme fra de kilder, Google bruger til at generere resuméer, f.eks. satiriske artikler eller troll-opslag på sociale medier.

I et interview med The Verge tog Googles CEO Sundar Pichai spørgsmålet om AI-hallucinationer op og erkendte, at det er et "uløst problem", men gav ikke en tidslinje for en løsning. 

Det er ikke første gang, Google er blevet kritiseret for sine AI-produkter; tidligere i år kom virksomhedens Gemini AI, en konkurrent til OpenAI's ChatGPT og DALL-E, under beskydning for at generere historisk unøjagtige billeder, herunder racemæssigt forskellige naziofficerer, hvide kvindelige præsidenter og en kvindelig pave. 

Som svar undskyldte Google senere offentligt og midlertidigt suspenderet Geminis evne til at skabe billeder af mennesker.

AI Overview er også blevet kritiseret af hjemmesideejere og i marketingmiljøet, da det truer med at flytte brugerne fra at interagere med traditionelle søgemaskineresultater til blot at stole på AI-genererede uddrag.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser