Anthropic, ett AI-bolag grundat av före detta OpenAI-chefer, har presenterat sin nya stora språkmodell (LLM), Claude 2.
Den nya modellen, som finns tillgänglig som en webbbeta i USA och Storbritannien och via ett betalt API, har förbättrad prestanda och kapacitet jämfört med sin föregångare.
Claude 2 är en vidareutveckling av Claude 1.3 och kan söka i dokument, sammanfatta innehåll, skriva, koda och svara på frågor. Den liknar andra LLM:er som ChatGPT men accepterar bilagor, vilket gör det möjligt för användare att ladda upp filer och låta AI:n analysera och använda dem.
Claude 2 överträffar 1.3 inom flera områden. Till exempel får den högre poäng på olika tester, inklusive advokatexamen och flervalsfrågorna i US Medical Licensing Exam. Det överträffar också sin föregångare på matematik- och kodningsproblem, inklusive Codex Human Level Python-kodningstest.
Sandy Banerjee, Anthropics marknadschef, förklarar dessa förbättringar: "Vi har arbetat med att förbättra resonemanget och modellens självmedvetenhet, så att den är mer medveten om "så här vill jag följa instruktioner", "jag kan hantera instruktioner i flera steg" och även mer medveten om sina begränsningar."
Träningsdata för Claude 2, som sammanställts från webbplatser, licensierade dataset från tredje part och användardata från början av 2023, är nyare än för Claude 1.3. Modellerna är dock i slutändan likartade - Banerjee medger att Claude 2 är en optimerad version av Claude 1.3.
Precis som andra LLM:er är Claude långt ifrån ofelbar. TechCrunch säger AI:n har manipulerats för att bland annat hitta på namn för kemikalier som inte existerar och erbjuda tvivelaktiga instruktioner för att producera vapenuran. Men så är det, Antropisk hävdar att Claude 2 är "2 x bättre" på att ge "ofarliga" svar än sin föregångare.
Banerjee säger: "[Vår] interna red teaming-utvärdering poängsätter våra modeller på en mycket stor representativ uppsättning av skadliga kontradiktoriska uppmaningar", "och vi gör detta med en kombination av automatiserade tester och manuella kontroller." Detta är viktigt för Anthropic eftersom modellens neutrala personlighet är central för företagets marknadsföringsinsatser.
Anthropic använder en specifik teknik som kallas 'konstitutionell AI," som ger modeller som Claude 2 specifika värden som definieras av en "konstitution". Syftet är att göra modellens beteende lättare att förstå och justera efter behov.
Anthropics vision är att skapa en "nästa generations algoritm för självlärande AI", och Claude 2 är bara ett steg mot detta mål.
Banerjee avslutade med att säga: "Vi håller fortfarande på att arbeta igenom vår strategi." "Vi måste se till att modellen i slutändan blir lika ofarlig och hjälpsam som den tidigare iterationen."
Vad är Claude?
Claude är en AI-assistent som utvecklats av Google-stödda Anthropic, ett nystartat företag som består av några före detta OpenAI-forskare. Den är utformad för att vara "hjälpsam, ärlig och harmlös" och är tillgänglig via ett chattgränssnitt och API.
Claude kan hjälpa till med en mängd olika uppgifter, t.ex. sammanfattningar, kreativt skrivande och skrivande i samarbete med andra, svar på frågor och kodning.
Flera företag har implementerat Claude, bland annat Notion, Quora och DuckDuckGo. Det har använts för att förbättra Quoras AI-chattapp, Poe, och integreras i produktivitetsappen Notion.
Andra partners är Robin AI, ett juridiskt företag som använder Claude för att förstå och skriva om komplexa juridiska texter, och AssemblyAI, som använder Claude för att transkribera och förstå ljuddata i stor skala.
Claudes förmåga att arbeta med filer är potentiellt bättre lämpad för vissa produktivitetsbaserade användningsområden jämfört med konkurrenter som ChatGPT.
Användare i USA och Storbritannien kan själva bedöma detta genom att prova webbbetan.