Den britiske regjeringen har offentliggjort rapporten "Capabilities and risks from frontier AI", som vil danne grunnlaget for diskusjonen på det kommende AI Safety Summit.
Rapporten gir en oversikt over nåværende og fremtidige muligheter og risikoer knyttet til frontier-modeller. Frontier-modeller er svært dyktige AI-modeller for generelle formål som kan utføre et bredt spekter av oppgaver, slik som GPT-4 eller Llama 2.
Før rapporten tar for seg nåværende og fremtidige risikoer, anerkjenner den at kunstig intelligens har potensial til å forbedre livene våre på mange måter. I innledningen til rapporten heter det at vi på grunn av AI "befinner oss midt i en teknologisk revolusjon som vil endre måten vi lever, arbeider og forholder oss til hverandre på, på en grunnleggende måte".
Det er særlig rapportens risikoer og dommedagsscenarioer som er interessant lesning.
Fremtidige risikoer ved kunstig intelligens
I rapporten heter det at "kompleksiteten i åpne domener gjør det vanskelig å utforme sikre systemer eller å evaluere alle nedstrøms brukstilfeller på en uttømmende måte." I bunn og grunn sier de at AI er et verktøy omtrent som en penn; du kan få det til å fungere bra, men du kan ikke hindre at noen bruker det til å skrive dårlige ting.
De påfølgende risikoene som følger av AIs dobbeltbruk fyller flere titalls sider i rapporten og får deg til å lure på hva toppmøtet vil oppnå i løpet av to dager.
En av de største risikoene som trekkes frem i rapporten, er at fremtidens AI aktivt søker autonomi. I rapporten heter det: "Tap av kontroll kan fremskyndes hvis AI-systemer iverksetter tiltak for å øke sin egen innflytelse og redusere menneskelig kontroll."
Det ble bemerket at fremtidig AI kan utvikle både evnen og viljen til å gjøre nettopp det.
Selv om vi erkjenner at noen eksperter mener at risikoen ved kunstig intelligens har blitt overvurdertavviser ikke rapporten de mer eksistensielle truslene.
Kunstig intelligens kan raskt føre til fremskritt innen helse, vitenskap og energi, men vi må utnytte den på en trygg måte.
Regjeringen har utgitt et diskusjonsnotat om risikoene og mulighetene ved Frontier AI:https://t.co/YIjyZsgcbe
Les et sammendrag nedenfor 👇
(1/4) pic.twitter.com/FJdbKcqk4e- Departementet for vitenskap, innovasjon og teknologi (@SciTechgovuk) 26. oktober 2023
AI-dommedagsscenarier
I rapporten heter det: "Gitt den betydelige usikkerheten knyttet til å forutsi AI-utviklingen, er det ikke tilstrekkelig bevis for å utelukke at svært kapable fremtidige Frontier AI-systemer kan utgjøre en eksistensiell trussel, hvis de er feiljustert eller utilstrekkelig kontrollert."
Det kan blant annet skje hvis "Etter hvert som AI-kapasiteten øker, gir mennesker AI mer kontroll over kritiske systemer og til slutt blir irreversibelt avhengige av systemer de ikke forstår fullt ut."
Hvis lyset slukkes og AI er den eneste som vet hvor bryteren er, kan vi bli sittende fast i mørket en god stund.
I et fremtidsscenario beskriver rapporten det den kaller et "AI-vilt vesten". I dette scenariet, som utspiller seg i 2030, "sliter myndighetene med volumet og mangfoldet av misbruk. Fokuset på å håndtere de umiddelbare konsekvensene av denne krisen har gjort det vanskelig å oppnå global enighet om hvordan man skal håndtere problemene på lang sikt."
Det høres ikke ut som fremtiden, det høres ut som det som skjer akkurat nå. Et todagers toppmøte vil neppe gjøre noe særlig med de alarmerende risikoene som er beskrevet i denne rapporten.
AI Safety Summit er basert på ideen om at "trygg" AI er mulig hvis vi bare prøver hardt nok. Men er det mulig?
Hvis en AGI allerede er ute i naturen, kan den lett lese bekymringene som er skissert i denne rapporten, og deretter skjule sin evne eller intensjon om å spille ut disse scenariene. Helt til det er for sent.