Anthropic, en AI-startup, der er grundlagt af tidligere OpenAI-ledere, har afsløret sin nye store sprogmodel (LLM), Claude 2.
Den nye model er tilgængelig som web-beta i USA og Storbritannien og via en betalt API og kan prale af forbedret ydeevne og kapacitet i forhold til sin forgænger.
Claude 2 er en videreudvikling af Claude 1.3, der kan søge i dokumenter, opsummere indhold, skrive, kode og besvare spørgsmål. Den ligner andre LLM'er som ChatGPT, men accepterer vedhæftede filer, så brugerne kan uploade filer og få AI'en til at analysere og bruge dem.
Claude 2 klarer sig bedre end 1.3 på flere områder. For eksempel scorer den højere på forskellige tests, herunder en advokateksamen og US Medical Licensing Exam's multiple choice-spørgsmål. Den klarer sig også bedre end sin forgænger i matematik- og kodningsproblemer, herunder Codex Human Level Python-kodningstesten.
Anthropics chef for go-to-market Sandy Banerjee uddyber disse forbedringer: "Vi har arbejdet på at forbedre modellens ræsonnement og en slags selvbevidsthed, så den er mere bevidst om, 'sådan kan jeg lide at følge instruktioner', 'jeg er i stand til at behandle instruktioner i flere trin' og også mere bevidst om sine begrænsninger."
Træningsdataene til Claude 2, der er indsamlet fra hjemmesider, licenserede datasæt fra tredjeparter og brugerdata fra begyndelsen af 2023, er nyere end dem i Claude 1.3. Men modellerne er i sidste ende ens - Banerjee indrømmer, at Claude 2 er en optimeret version af Claude 1.3.
Ligesom andre LLM'er er Claude langt fra ufejlbarlig. TechCrunch siger AI'en er blevet manipuleret til bl.a. at opfinde navne på ikke-eksisterende kemikalier og tilbyde tvivlsomme instruktioner til fremstilling af uran til våben. Men det er ikke tilfældet, Antropisk hævder, at Claude 2 er "2 x bedre" til at give "harmløse" svar end sin forgænger.
Banerjee sagde: "[Vores] interne red teaming-evaluering scorer vores modeller på et meget stort repræsentativt sæt af skadelige fjendtlige beskeder", "og vi gør dette med en kombination af automatiserede tests og manuelle kontroller." Dette er vigtigt for Anthropic, da modellens neutrale personlighed er central for virksomhedens markedsføringsindsats.
Anthropic bruger en specifik teknik kaldet 'Konstitutionel AIsom tilfører modeller som Claude 2 specifikke værdier, der er defineret af en "forfatning". Målet er at gøre modellens adfærd lettere at forstå og justere efter behov.
Anthropics vision er at skabe en "næste generations algoritme til selvlæring af AI", og Claude 2 er blot et skridt på vejen mod dette mål.
Banerjee konkluderede: "Vi arbejder stadig med vores tilgang." "Vi er nødt til at sikre os, at modellen ender med at være lige så harmløs og hjælpsom som den forrige iteration."
Hvad er Claude?
Claude er en AI-assistent, der er udviklet af det Google-støttede Anthropic, en startup bestående af et par tidligere OpenAI-forskere. Den er designet til at være "hjælpsom, ærlig og harmløs" og er tilgængelig via en chatgrænseflade og API.
Claude kan hjælpe med en bred vifte af opgaver, herunder opsummering, kreativ og fælles skrivning, besvarelse af spørgsmål og kodning.
Flere virksomheder har implementeret Claude, herunder Notion, Quora og DuckDuckGo. Den er blevet brugt til at forbedre Quoras AI-chat-app, Poe, og er integreret i produktivitetsappen Notion.
Andre partnere er Robin AI, en juridisk virksomhed, som bruger Claude til at forstå og omformulere komplekse juridiske tekster, og AssemblyAI, som bruger Claude til at transskribere og forstå lyddata i stor skala.
Claudes evne til at arbejde med filer er potentielt bedre egnet til nogle produktivitetsbaserede anvendelser sammenlignet med konkurrenter som ChatGPT.
Brugere i USA og Storbritannien kan selv bedømme det ved at prøve webbetaen.