Google AI-översikt: pytonormar är däggdjur och andra misstag

25 maj 2024

  • Googles AI-funktion Översikt gör pinsamma misstag och faktafel
  • Det kan bero på att den hallucinerar eller tar information från ovanliga källor
  • Google har bekräftat problemet och uppgett att de undersöker det

Googles nyligen lanserade funktion AI Overview, som syftar till att ge användarna AI-genererade sammanfattningar av sökresultat, har kritiserats för att leverera missvisande, felaktiga och ibland rent bisarra svar. 

Funktionen, som nu rullas ut till miljarder efter att Google fördubblat den vid den senaste Google I/O konferens för utvecklarehar blivit föremål för omfattande hån och oro på sociala medier när användare har visat exempel på AI:s misstag.

Det var bara en tidsfråga. Mänsklig nyfikenhet blir bättre av AI-räcken på ett eller annat sätt. 

Journalister och vanliga användare har tagit till X och andra plattformar för att lyfta fram fall där AI Overview-funktionen har citerat tvivelaktiga källor, till exempel satiriska artiklar från The Onion eller skämtinlägg på Reddit, som om de vore fakta. 

I ett av de mer alarmerande fallen visade datavetaren Melanie Mitchell ett exempel där funktionen visade en konspirationsteori som antyder att den tidigare presidenten Barack Obama är muslim, uppenbarligen som ett resultat av att AI:n misstolkat information från en forskningsplattform hos Oxford University Press.

Andra exempel på AI:ns fel är att den plagierat text från bloggar utan att ta bort personliga referenser till författarnas barn, att den inte erkänt att det finns afrikanska länder som börjar på bokstaven "K" och att den till och med föreslagit att pytonormar är däggdjur. 

Vissa av dessa felaktiga resultat, till exempel konspirationsteorin om Obama eller förslaget att lägga lim på pizza, visar inte längre en AI-sammanfattning utan istället artiklar som hänvisar till AI:s faktaproblem.

Men nu frågar sig många om AI Overview någonsin kan fylla sitt syfte på ett korrekt sätt. 

Google har redan bekräftat problemet, och en talesman för företaget säger The Verge att misstagen uppträdde på "i allmänhet mycket ovanliga frågor och inte är representativa för de flesta människors erfarenheter." 

Den exakta orsaken till problemet är dock fortfarande oklar. Det kan bero på AI:ns tendens att "hallucinera".

Eller så kan det härröra från de källor som Google använder för att generera sammanfattningar, till exempel satiriska artiklar eller trollinlägg på sociala medier.

I en intervju med The Verge tog Googles VD Sundar Pichai upp frågan om AI-hallucinationer och erkände att de är ett "olöst problem", men han ville inte ge någon tidslinje för en lösning. 

Det är inte första gången Google får kritik för sina AI-produkter; tidigare i år fick företagets Gemini AI, en konkurrent till OpenAI:s ChatGPT och DALL-E, kritik för att ha genererat historiskt felaktiga bilder, inklusive nazistiska officerare med olika rastillhörighet, vita kvinnliga presidenter och en kvinnlig påve. 

Som svar bad Google senare offentligt om ursäkt och tillfälligt avstängd Geminis förmåga att skapa bilder av människor.

AI Overview har också kritiserats av webbplatsägare och inom marknadsföringsbranschen eftersom det hotar att flytta användare från att interagera med traditionella sökmotorresultat till att helt enkelt förlita sig på AI-genererade snippets.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar