AI-startupen Anthropic är enligt uppgift i samtal om att säkra $750 miljoner i finansiering.
Denna finansieringsrunda, som leds av riskkapitalbolaget Menlo Ventures, kommer att sätta Anthropics värde till cirka $18 miljarder kronor.
Finansieringen av AI-bolag under 2023 har varit otrolig, och många startupbolag har värderats till mångmiljardbelopp inom loppet av några månader.
Anthropic är det perfekta exemplet på hur värdefulla AI-företag till synes har dykt upp från ingenstans.
Företaget grundades 2021 av Dario och Daniela Amodei, som tidigare hade ledande roller på OpenAI, en konkurrent som stöds av Microsoft, och var banbrytande inom stora språkmodeller (LLM) som fungerar via en "konstitution" som styr deras beteende. Företagets nuvarande produkt är Claude 2, som fungerar på samma sätt som de flesta andra LLM:er vid nominellt värde.
Anthropic har redan lockat till sig betydande investeringar från teknikjättar som Google och Amazon, som har gått med på att investera upp till $2 miljarder och $4 miljarderrespektive. Detta innebar att Anthropic ingick ett flerårigt molnavtal med Google.
Amazons investering i Anthropic gav Amazons anställda och molnkunder tidig tillgång till Anthropics AI-teknik. Dessutom har Anthropic åtagit sig att använda Amazons molntjänster för att träna sina AI-modeller, inklusive Amazons relativt nya egenutvecklade Trainium- och Inferentia-chip.
Antropisk, tillsammans med kollega Amerikanska AI-startupen Inflectionhar lockat till sig miljardinvesteringar från teknikjättar som vill knyta till sig de främsta talangerna i branschen.
Det finansiella intresset för Anthropic har dock ökat även utomlands, och företaget har fått en investering på $100 miljoner från SK Telecom i Sydkorea för att utveckla LLM-utbildningar som är skräddarsydda för telekommunikationsbranschen.
Modellen ska stödja flera olika språk, bland annat arabiska, engelska, tyska, japanska, koreanska och spanska.
Den här veckan, Tid utnämnde Anthropics konstitutionella AI till en av de 3 främsta AI-innovationerna 2023. Som beskrivs i ett dokument från december 2022 innebär detta att man skapar en "konstitution" som beskriver önskade AI-värden. AI:n tränas sedan i att utvärdera svar baserat på hur de överensstämmer med denna konstitution.
Som Anthropic-forskarna noterar: "Dessa metoder gör det möjligt att kontrollera AI-beteende mer exakt och med mycket färre mänskliga etiketter." Denna metod var avgörande för att utveckla Claude, Anthropics 2023-svar på ChatGPT.
Jack Clark, Anthropics policychef, framhöll betydelsen av detta tillvägagångssätt för Time och sa: "Med konstitutionell AI skriver du uttryckligen ner de normativa premisser som din modell ska närma sig världen med. Sedan tränar modellen på det."
Anthropic försökte också att Crowdsourcing av en AI-konstitution från cirka 1 000 amerikaner för att undersöka hur man kan skapa konsensus kring en chatbots riktlinjer.
Resultaten var lovande och visade att det finns potential för ett bredare offentligt engagemang i styrningen av AI, i motsats till den nuvarande normen där utvecklarna sätter reglerna.