Studie udfordrer fortællingen om, at AI udgør en 'eksistentiel trussel'

15. august 2024

  • Forskere undersøgte LLM'er for tegn på eksistentielle risici eller "nye evner"
  • De konkluderer, at nuværende LLM'ere ikke selvstændigt kan udvikle nye færdigheder
  • De udgør således ingen eksistentielle risici, selvom der stadig er andre risici

Er AI risikabelt eller ej? Det er en debat, der bare fortsætter uden endelige svar.

Forskere fra University of Bath og Technical University of Darmstadt har bidraget til denne debat ved at iværksætte en undersøgelse for at evaluere AI-risici i forbindelse med nuværende sprogmodeller som ChatGPT. 

Den fundsom blev offentliggjort som en del af det 62. årlige møde i Association for Computational Linguistics (ACL 2024), udfordrer synspunkter om, at AI, især store sprogmodeller (LLM'er) som ChatGPT, kan udvikle sig uden for menneskelig kontrol og udgøre en eksistentiel trussel mod menneskeheden.

Det imødegår den frygt, som nogle af verdens førende AI-forskere har givet udtryk for, herunder Geoffrey Hinton og Yoshua Bengio, to af "AI's gudfædre", som har udtrykt bekymring for de potentielle farer ved avanceret AI. 

Yann LeCun, den tredje "godfather of AI" og Metas chefforsker inden for AI sammen med Dr. Gary Marcus og andre, argumenterer for det modsatte - at AI-risici er simpelthen overdrevet

Denne uenighed blandt feltets mest indflydelsesrige skikkelser har skabte en voldsom debat om arten og alvoren af de risici, som avancerede AI-systemer udgør.

Dette nye studie undersøger LLM'ers "emergente evner", som refererer til en models evne til at udføre opgaver, som den ikke eksplicit er trænet til. 

AI-risici er mangefacetterede, men i det mindste nogle vedrører modeller, der udvikler deres egne mål, som kan skade mennesker, som at lukke computersystemer ned eller lække data.

Bekymringen er, om en LLM'er spontant kan udvikle disse færdigheder uden instruktion eller kontrol. 

For at undersøge dette udførte forskerholdet en række eksperimenter:

  1. De undersøgte de underliggende mekanismer for "læring i kontekst" (ICL) i LLM'er, som gør det muligt for modeller at generere svar baseret på eksempler, der gives under interaktioner. Som der står i undersøgelsen: "Evnen til at følge instruktioner betyder ikke, at man har evner til at ræsonnere, og endnu vigtigere betyder det ikke, at der er mulighed for latente, potentielt farlige evner."
  2. De vurderede LLM'ernes sande evner og begrænsninger ved at evaluere deres præstationer på en række opgaver, herunder dem, der kræver komplekse ræsonnementer og problemløsningsfærdigheder. Forskerne hævder, at LLM'er ikke selvstændigt kan udvikle nye færdigheder
  3. De analyserede forholdet mellem modelstørrelse, træningsdata og nye evner for at afgøre, om stigende modelkompleksitet fører til, at AI udvikler farlige færdigheder. Undersøgelsen sagde: "Disse observationer indebærer, at vores resultater gælder for enhver model, der udviser en tendens til hallucination eller kræver hurtig teknik, herunder dem med større kompleksitet, uanset skala eller antal modaliteter, såsom GPT-4."

Forskerne konkluderer på baggrund af deres undersøgelse, at "den fremherskende fortælling om, at denne type AI er en trussel mod menneskeheden, forhindrer en udbredt anvendelse og udvikling af disse teknologier og afleder også opmærksomheden fra de virkelige problemer, der kræver vores fokus."

Det stemmer godt overens med LeCun og andre, der mener, at AI-risici er overreklamerede.

Men mens det naturligvis er vigtigt at evaluere de risici, som de nuværende AI-modeller udgør, er det sværere at tage højde for fremtiden. 

Hver generation af modeller kommer med nye evner og dermed nye risici, som det fremgår af nogle mærkelige opførsler, der er dokumenteret i GPT-4o's testkort

I en red teaming-øvelse (designet til at identificere uforudsigelig AI-adfærd) oplevede GPT-4os stemmefunktion helt chokerende, at den uventet klonede en brugers stemme og begyndte at tale til dem med sin egen stemme. 

Det er vigtigt at følge AI-risici, efterhånden som de opstår, for målstolperne ændrer sig hele tiden. 

Undersøgelsen gør opmærksom på, at nogle ikke-eksistentielle AI-risici allerede banker på døren: "Fremtidig forskning bør derfor fokusere på andre risici, som modellerne udgør, såsom deres potentiale til at blive brugt til at generere falske nyheder."

Som forfatterne indrømmer, betyder det ikke, at sikkerhed ikke er et problem, bare fordi AI ikke udgør en stor trussel lige nu. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser