Systeem 2 Aandacht verbetert nauwkeurigheid van LLM-reacties

23 november 2023

Grote taalmodellen (LLM) worden vaak misleid door vertekening of irrelevante context in een prompt. Onderzoekers van Meta hebben een schijnbaar eenvoudige manier gevonden om dat op te lossen.

Naarmate de contextvensters groter worden, kunnen de aanwijzingen die we aan een LLM geven langer en gedetailleerder worden. LLM's zijn beter geworden in het oppikken van de nuances of kleinere details in onze prompts, maar soms kan dit ze verwarren.

In het begin gebruikte machine learning een "harde aandacht" benadering die het meest relevante deel van een input eruit pikte en alleen daarop reageerde. Dit werkt prima als je een afbeelding probeert te ondertitelen, maar slecht bij het vertalen van een zin of het beantwoorden van een vraag met meerdere lagen.

De meeste LLM's gebruiken nu een "zachte aandacht"-benadering die de hele prompt toekent en aan elke prompt een gewicht toekent.

Meta stelt een aanpak voor die Systeem 2 Aandacht (S2A) om het beste van beide werelden te krijgen. S2A maakt gebruik van de natuurlijke taalverwerking van een LLM om je vraag te verwerken en vooroordelen en irrelevante informatie te verwijderen voordat je aan de slag gaat met een antwoord.

Hier is een voorbeeld.

S2A Math-voorbeeld. Bron: arXiv

S2A verwijdert de info met betrekking tot Max omdat die irrelevant is voor de vraag. S2A regenereert een geoptimaliseerde prompt voordat er aan wordt gewerkt. LLM's zijn notoir slecht in wiskunde dus het minder verwarrend maken van de prompt is een grote hulp.

LLM's zijn 'people pleasers' en geven je graag gelijk, zelfs als je het mis hebt. S2A verwijdert elke vooringenomenheid in een prompt en verwerkt vervolgens alleen de relevante delen van de prompt. Dit vermindert wat AI-onderzoekers "sycophancy" noemen, of de neiging van een AI-model om te slijmen.

S2A sycofantiereductie. Bron: arXiv

S2A is eigenlijk gewoon een systeemvraag die de LLM instrueert om de oorspronkelijke vraag wat te verfijnen voordat hij ermee aan de slag gaat. De resultaten die de onderzoekers behaalden met wiskundige, feitelijke en lange vragen waren indrukwekkend.

Hier zijn bijvoorbeeld de verbeteringen die S2A behaalde op feitelijke vragen. De basislijn waren antwoorden op vragen die vooringenomenheid bevatten, terwijl de Oracle prompt een door mensen verfijnde ideale prompt was.

S2A komt heel dicht in de buurt van de Oracle prompt resultaten en levert bijna 50% verbetering in nauwkeurigheid ten opzichte van de basislijn prompt.

S2A Vergelijking van resultaten. Bron: arXiv

Dus wat is het addertje onder het gras? Het voorbewerken van de oorspronkelijke prompt voordat deze wordt beantwoord, voegt extra rekenkracht toe aan het proces. Als de prompt lang is en veel relevante informatie bevat, kan het opnieuw genereren van de prompt aanzienlijke kosten met zich meebrengen.

Het is onwaarschijnlijk dat gebruikers beter worden in het schrijven van goed geformuleerde prompts, dus S2A kan een goede manier zijn om dat te omzeilen.

Zal Meta S2A inbouwen in zijn Lama model? We weten het niet, maar je kunt de S2A-aanpak zelf gebruiken.

Als je voorzichtig bent met het weglaten van meningen of leidende suggesties uit je vragen, is de kans groter dat je accurate antwoorden krijgt van deze modellen.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Eugene van der Watt

Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden