Anthropic, en AI-oppstartsbedrift grunnlagt av tidligere OpenAI-ledere, har avduket sin nye store språkmodell (LLM), Claude 2.
Den nye modellen er tilgjengelig som en nettbeta i USA og Storbritannia og gjennom en betalt API, og kan skilte med forbedret ytelse og kapasitet sammenlignet med forgjengeren.
Claude 2 er en videreutvikling av Claude 1.3, og kan søke i dokumenter, oppsummere innhold, skrive, kode og svare på spørsmål. Den ligner på andre LLM-er som ChatGPT, men godtar vedlegg, slik at brukerne kan laste opp filer og få AI-en til å analysere og bruke dem.
Claude 2 gjør det bedre enn 1.3 på flere områder. For eksempel oppnår den høyere poengsum på ulike tester, inkludert advokateksamen og flervalgsspørsmålene til US Medical Licensing Exam. Det gjør det også bedre enn forgjengeren på matte- og kodingsoppgaver, inkludert Codex Human Level Python-kodingstesten.
Sandy Banerjee, leder for Anthropics go-to-market-avdeling, utdyper disse forbedringene: "Vi har jobbet med å forbedre modellens resonnement og selvbevissthet, slik at den er mer bevisst på "slik følger jeg instruksjoner", "jeg er i stand til å behandle flertrinnsinstruksjoner", og også mer bevisst på sine begrensninger."
Treningsdataene for Claude 2, som er samlet fra nettsteder, lisensierte datasett fra tredjeparter og brukerdata fra begynnelsen av 2023, er nyere enn for Claude 1.3. Men modellene er til syvende og sist like - Banerjee innrømmer at Claude 2 er en optimalisert versjon av Claude 1.3.
I likhet med andre LLM-er er Claude langt fra ufeilbarlig. TechCrunch sier AI-en har blitt manipulert til blant annet å finne opp navn på ikke-eksisterende kjemikalier og tilby tvilsomme instruksjoner for produksjon av uran til våpenproduksjon. Men det er ikke alt, Antropisk hevder at Claude 2 er "2 x bedre" til å gi "ufarlige" svar enn forgjengeren.
Banerjee uttalte: "[Vår] interne red teaming-evaluering scorer modellene våre på et veldig stort representativt sett med skadelige, kontradiktoriske meldinger", "og vi gjør dette med en kombinasjon av automatiserte tester og manuelle kontroller." Dette er viktig for Anthropic, ettersom modellens nøytrale personlighet er sentral i selskapets markedsføringsarbeid.
Anthropic bruker en spesifikk teknikk som kalleskonstitusjonell AIsom tilfører modeller som Claude 2 spesifikke verdier definert av en "grunnlov". Målet er å gjøre modellens oppførsel lettere å forstå og justere etter behov.
Anthropics visjon er å skape en "neste generasjons algoritme for selvlærende AI", og Claude 2 er bare ett skritt på veien mot dette målet.
Banerjee konkluderte: "Vi jobber fortsatt med tilnærmingen vår." "Vi må sørge for at modellen ender opp like harmløs og nyttig som den forrige iterasjonen."
Hva er Claude?
Claude er en AI-assistent utviklet av Google-støttede Anthropic, en oppstartsbedrift som består av noen tidligere OpenAI-forskere. Den er designet for å være "hjelpsom, ærlig og ufarlig" og er tilgjengelig via et chat-grensesnitt og API.
Claude kan hjelpe deg med en rekke ulike oppgaver, blant annet oppsummering, kreativ skriving og samarbeidsskriving, besvarelse av spørsmål og koding.
Flere selskaper har implementert Claude, inkludert Notion, Quora og DuckDuckGo. Den har blitt brukt til å forbedre Quoras AI Chat-app, Poe, og er integrert i produktivitetsappen Notion.
Andre partnere er Robin AI, en juridisk virksomhet som bruker Claude til å forstå og omformulere komplekse juridiske tekster, og AssemblyAI, som bruker Claude til å transkribere og forstå lyddata i stor skala.
Claudes evne til å arbeide med filer er potensielt bedre egnet til enkelte produktivitetsbaserte bruksområder sammenlignet med konkurrenter som ChatGPT.
Brukere i USA og Storbritannia kan selv bedømme det ved å prøve nettbetaen.