Meta nedtoner de potentielle risici ved sin nye open source-model Llama 2

19. juli 2023

Meta Llama 2

På trods af den stigende bekymring for kunstig intelligens hævder Metas chef for globale anliggender og kommunikation, Sir Nick Clegg, at teknologien i øjeblikket er for "dum" til at udgøre en sådan fare. 

Dette falder sammen med afsløring af Metas nye store sprogmodel (LLM), LLama 2. 

Sir Nick - en tidligere britisk politiker - sagde i BBC Radio 4's Today-program: "Jeg tror, at mange af de eksistentielle advarsler vedrører modeller, der ikke findes i øjeblikket, såkaldte superintelligente, superkraftige AI-modeller - visionen, hvor AI udvikler en autonomi og handlekraft på egen hånd, hvor den kan tænke for sig selv og reproducere sig selv. De modeller, vi open-sourcer, er langt, langt, langt fra det. Faktisk er de på mange måder ret dumme."

Llama AI-chatbotten, et open source-projekt fra Meta, gør det muligt for enkeltpersoner og organisationer at tune og optimere modellen efter ønske, herunder at træne den på deres egne interne data.

Det vil potentielt underminere konkurrerende virksomheder som OpenAI, der tager penge for at bruge deres AI. 

Llama 2 er en seriøs konkurrent til proprietære AI-modeller

Meta's Llama 2 vil blive gjort tilgængelig som en del af et samarbejde med Microsoft. 

Det er interessant i betragtning af Microsofts omfattende investering i OpenAI, en af Llamas konkurrenter, ChatGPT. Big tech-investeringer og -forskning er blevet fuldstændig sammenfiltrede, og konkurrenterne deler ekspertise og ressourcer. 

Det er en bizar situation - Microsoft, OpenAI's største bidragyder, hævder at ikke være med i løkken med OpenAI's strategier, mens OpenAI åbent samarbejder med nogle af Microsofts rivaler. 

Metas første LLM, LLaMA, blev lækket til offentligheden via 4Chan. Da offentligheden fik fingre i modellen, begyndte fællesskaber at tune og optimere den, herunder at slanke den til brug på en MacBook, smartphone og endda en Raspberry PI. 

Nogle hævder, at virksomheder som OpenAI er ude efter regulering, da de ved, at det vil stække open source-fællesskabet's vækst, som har vist sig at være en stor disruptiv kraft i AI-industrien. 

På trods af frygten for, at open source-AI kan udsætte den for misbrug af skumle aktører, insisterer Meta på, at dens AI ikke vil blive brugt til at fremme skadelige aktiviteter. 

Da han blev spurgt om disse modellers mulige farer, sagde Sir Nick, at de "ikke kan bygge en atombombe". 

Mark Zuckerberg argumenterede desuden for, at open source-modeller kunne øge sikkerheden gennem "forbedret sikkerhed, for når software er åben, kan flere mennesker granske den."

Metas brugsbetingelser forbyder specifikt at bruge Llama til at fremme vold, skabe computervirus, bygge våben, udvikle atomteknologi, sprede spam, fremme hadefuld tale eller dele indhold, der misbruger børn. 

Men det er blot betingelser for at downloade modellen. Open-source er open-source, og offentligheden vil i sidste ende gøre, hvad de vil med Llama 2. 

Ifølge Sir Nick er Metas beslutning om at open source sin teknologi ikke usædvanlig. Han sagde: "Det er ikke sådan, at vi står ved et T-kryds, hvor firmaer kan vælge at open source eller ej. Modeller bliver allerede open source'et hele tiden."

Han sagde også, at de nuværende AI-værktøjer ikke er så avancerede, som de ofte fremstilles, og beskrev generative AI'er som ChatGPT som værende i stand til at "gætte med stor hastighed", men har "ingen medfødt autonom intelligens overhovedet".

Hvad AI-samfundet formår at gøre med Llama 2, vil være en spændende observation. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser