Nadat Google's nieuwe AI Overviews zoekfunctie vorige week op dramatische wijze faalde, bagatelliseerde het bedrijf het probleem, maar zei het dat er een oplossing in de maak was.
AI Overviews gebruikt AI om informatie op het internet te gebruiken om een antwoord te geven op een zoekopdracht. Dit bespaart de gebruiker de moeite om door te klikken naar meerdere websites.
In een klassiek geval van "garbage in, garbage out" waren een aantal van de antwoorden die AI-overzichten gaven komisch fout omdat het zich baseerde op onjuiste informatie die online was geplaatst.
Hoofd Search Liz Reid gaf een verklaring af in een blogbericht waarin ze zei dat AI Overviews een groot succes was, maar toegaf dat er een paar haken en ogen aan zaten.
Reid zei dat de redenen achter sommige vreemde resultaten onzinnige zoekopdrachten of vervalste schermafbeeldingen waren. Over de valse resultaten zei Reid: "Die AI-overzichten zijn nooit verschenen. Dus we raden iedereen die deze schermafbeeldingen tegenkomt aan om zelf een zoekopdracht uit te voeren om dit te controleren."
Ze gaf toe dat AI Overviews soms "vreemde, onnauwkeurige of onbehulpzame" resultaten gaf. De belangrijkste reden hiervoor is het gebrek aan kwaliteitsgegevens op het internet met betrekking tot de zoekopdracht of dat de zoekopdracht onzinnig was en de zoekfunctie dat niet oppikte.
De suggestie om stenen te eten is een perfect voorbeeld van de uitdaging waar AI Overviews voor staat. De vraag "Hoeveel stenen moet ik eten?" zou niet door veel mensen gesteld zijn. Toen AI Overviews de vraag probeerde te beantwoorden, vond het een satirisch artikel op The Onion waarin gekscherend werd aanbevolen om één kleine steen per dag te eten.
AI Overviews is niet goed in het onderscheiden van humoristische, satirische of sarcastische inhoud van feitelijke informatie, maar Google zegt dat het de kwaliteit van AI Overviews resultaten heeft verbeterd door:
- Betere detectiemechanismen ontwikkelen voor onzinnige zoekopdrachten en satirische of humoristische inhoud.
- Beperk het gebruik van door gebruikers gegenereerde inhoud (bijv. Reddit) in reacties die misleidend advies kunnen geven.
- Triggerbeperkingen toegevoegd voor query's waarbij AI-overzichten niet zo nuttig bleken te zijn.
- Sterkere vangrails toegevoegd om reacties te beperken die betrekking hebben op onderwerpen zoals nieuws en gezondheid.
Mensen hebben misschien een beetje plezier gehad door zich te richten op de vreemde antwoorden, maar het leveren van consistent goede antwoorden op zoekopdrachten is extreem moeilijk. AI Overviews is objectief nuttig, zelfs als je de resultaten met enige scepsis moet bekijken.
AI creëert geen informatie, het vertrouwt op zijn trainingsgegevens of, zoals bij AI Overzichten, het geeft een antwoord op basis van door mensen gegenereerde informatie op het internet.
AI-overzichten moeten dezelfde uitdagende vragen beantwoorden als mensen krijgen wanneer ze iets online lezen: Is dit waar?
Ironisch genoeg maakt AI deze vraag moeilijker te beantwoorden, niet gemakkelijker.