Studie utfordrer narrativet om at kunstig intelligens utgjør en "eksistensiell trussel

15. august 2024

  • Forskerne undersøkte LLM-er for tegn på eksistensiell risiko eller "nye evner"
  • De konkluderer med at dagens LLM-er ikke kan utvikle ny kompetanse på egen hånd
  • Dermed utgjør de ingen eksistensiell risiko, selv om andre risikoer gjenstår

Er kunstig intelligens risikabelt eller ikke? Det er en debatt som bare fortsetter å rase uten endelige svar.

Forskere ved University of Bath og det tekniske universitetet i Darmstadt har lansert en studie for å evaluere AI-risikoer i forbindelse med nåværende språkmodeller som ChatGPT. 

Den funnsom ble publisert som en del av det 62. årsmøtet til Association for Computational Linguistics (ACL 2024), utfordrer synet på at kunstig intelligens, og særlig store språkmodeller (LLM-er) som ChatGPT, kan utvikle seg utenfor menneskelig kontroll og utgjøre en eksistensiell trussel mot menneskeheten.

Dette står i kontrast til frykten som noen av verdens ledende AI-forskere har gitt uttrykk for, deriblant Geoffrey Hinton og Yoshua Bengio, to av "gudfedrene til AI", som har uttrykt bekymring for de potensielle farene ved avansert AI. 

Yann LeCun, den tredje "gudfaren for AI" og Metas AI-sjefforsker, sammen med blant andre Dr. Gary Marcus, hevder det motsatte - at AI-risikoer er rett og slett overdrevet

Denne uenigheten blant feltets mest innflytelsesrike skikkelser har skapte en voldsom debatt om arten og alvorlighetsgraden av risikoen som avanserte AI-systemer utgjør.

Denne nye studien undersøker LLM-enes "fremvoksende evner", som refererer til en modells evne til å utføre oppgaver som den ikke er eksplisitt trent for. 

Risikoen ved kunstig intelligens er mangefasettert, men i det minste noen av dem er knyttet til modeller som utvikler egne mål som kan skade mennesker, som å slå av datasystemer eller lekke data.

Bekymringen er hvorvidt en LLM spontant kan utvikle disse ferdighetene uten instruksjon eller kontroll. 

For å undersøke dette gjennomførte forskerteamet en rekke eksperimenter:

  1. De undersøkte de underliggende mekanismene for "læring i kontekst" (ICL) hos LLM-er, som gjør det mulig for modeller å generere responser basert på eksempler gitt under interaksjoner. I studien heter det: "Evnen til å følge instruksjoner innebærer ikke at man har resonnerende evner, og enda viktigere, det innebærer ikke muligheten for latente, potensielt farlige evner."
  2. De vurderte LLM-enes sanne evner og begrensninger ved å evaluere prestasjonene deres på en rekke oppgaver, inkludert oppgaver som krever komplekse resonnementer og problemløsningsferdigheter. Forskerne hevder at LLM-er ikke kan utvikle nye ferdigheter på egen hånd
  3. De analyserte forholdet mellom modellstørrelse, treningsdata og fremvoksende evner for å avgjøre om økende modellkompleksitet fører til at AI utvikler farlige ferdigheter. Studien sa: "Disse observasjonene innebærer at funnene våre gjelder for alle modeller som viser en tilbøyelighet til hallusinasjon eller krever rask prosjektering, inkludert de med større kompleksitet, uavhengig av skala eller antall modaliteter, for eksempel GPT-4."

Forskerne konkluderer med at "det rådende narrativet om at denne typen kunstig intelligens er en trussel mot menneskeheten, hindrer utbredt bruk og utvikling av disse teknologiene og avleder dessuten oppmerksomheten fra de virkelige problemene som krever vårt fokus".

Dette stemmer godt overens med LeCun og andre som mener at AI-risikoer er overpublisert.

Men selv om det åpenbart er viktig å evaluere risikoen ved dagens AI-modeller, er det vanskeligere å ta høyde for fremtiden. 

Hver generasjon modeller kommer med nye evner og dermed nye risikoer, noe som vises av noen merkelige oppførsler dokumentert i GPT-4o's testkort

I en red teaming-øvelse (designet for å identifisere uforutsigbar AI-atferd) ble GPT-4os stemmefunksjon uventet brukt til å klone en brukers stemme og begynne å snakke til vedkommende med sin egen stemme. 

Det er avgjørende å følge med på KI-risikoer etter hvert som de dukker opp, ettersom målstolpene endrer seg hele tiden. 

Studien peker på at noen ikke-eksistensielle AI-risikoer allerede banker på døren: "Fremtidig forskning bør derfor fokusere på andre risikoer som modellene utgjør, for eksempel deres potensial til å bli brukt til å generere falske nyheter."

Som forfatterne innrømmer, betyr det ikke at sikkerheten er et ikke-tema bare fordi AI ikke utgjør noen stor trussel akkurat nå. 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser