Den britiske regering udgav sin rapport "Capabilities and risks from frontier AI", som vil danne grundlag for diskussionen på det kommende AI Safety Summit.
Rapporten giver et overblik over de nuværende og fremtidige muligheder og risici, der er forbundet med frontier-modeller. Frontier-modeller er meget dygtige AI-modeller til generelle formål, der kan udføre en lang række opgaver, som GPT-4 eller Llama 2.
Før rapporten tager fat på de nuværende og fremtidige risici, anerkender den, at AI har potentiale til at forbedre vores liv på mange måder. I sin indledning sagde rapporten, at vi på grund af AI "befinder os midt i en teknologisk revolution, der fundamentalt vil ændre den måde, vi lever, arbejder og forholder os til hinanden på."
Det er især de risici og dommedagsscenarier, der skitseres i rapporten, som er interessant læsning.
Fremtidige risici ved AI
Rapporten bemærkede, at "kompleksiteten i åbne domæner gør det vanskeligt at designe sikre systemer eller udtømmende evaluere alle downstream use cases." Dybest set siger de, at AI er et værktøj ligesom en kuglepen; man kan få det til at fungere godt, men man kan ikke forhindre nogen i at bruge det til at skrive dårlige ting.
De efterfølgende risici, der kommer fra AI's dobbelte anvendelse, fylder flere sider i rapporten og får dig til at spekulere på, hvad Topmødet vil opnå på 2 dage.
En bemærkelsesværdig risiko i rapporten er, at fremtidens AI aktivt søger autonomi. Rapporten siger: "Tabet af kontrol kan fremskyndes, hvis AI-systemer tager skridt til at øge deres egen indflydelse og reducere den menneskelige kontrol."
Den bemærkede, at fremtidig AI kunne udvikle både evnen og viljen til at gøre netop det.
Vi anerkender, at nogle eksperter mener, at Risici ved kunstig intelligens er blevet overvurderetRapporten afviser ikke de mere eksistentielle trusler.
AI kan hurtigt fremme sundhedspleje, videnskab og energi, men vi skal udnytte den på en sikker måde.
Regeringen har udgivet et diskussionsoplæg om risici og muligheder ved Frontier AI:https://t.co/YIjyZsgcbe
Læs et sammendrag nedenfor 👇
(1/4) pic.twitter.com/FJdbKcqk4e- Departementet for videnskab, innovation og teknologi (@SciTechgovuk) 26. oktober 2023
AI-dommedagsscenarier
Rapporten sagde: "I betragtning af den betydelige usikkerhed, der er forbundet med at forudsige AI-udviklingen, er der ikke tilstrækkelig dokumentation til at udelukke, at meget dygtige fremtidige Frontier AI-systemer kan udgøre en eksistentiel trussel, hvis de er forkert afstemt eller utilstrækkeligt kontrolleret."
En af måderne, det kan ske på, er, hvis "I takt med at AI-kapaciteten øges, giver mennesker AI mere kontrol over kritiske systemer og til sidst bliver uigenkaldeligt afhængige af systemer, som de ikke forstår fuldt ud."
Hvis lyset går ud, og AI er den eneste, der ved, hvor kontakten er, så kan vi sidde fast i mørket i nogen tid.
I et futuristisk scenarie beskriver rapporten, hvad den kalder et "AI Wild West". I dette scenarie, der foregår i 2030, "kæmper myndighederne med mængden og mangfoldigheden af misbrug. Et fokus på at tackle de umiddelbare konsekvenser af denne krise har gjort det svært at nå frem til en global konsensus om, hvordan problemerne skal håndteres på lang sigt."
Det lyder ikke som fremtiden, det lyder som det, der sker lige nu. Det er usandsynligt, at et todages topmøde vil gøre meget ved de alarmerende risici, der beskrives i denne rapport.
AI Safety Summit er baseret på ideen om, at "sikker" AI er mulig, hvis vi bare prøver hårdt nok. Men er det det?
Hvis en AGI allerede er i naturen, kan den nemt læse de bekymringer, der er skitseret i denne rapport, og derefter skjule sin evne eller hensigt om at udspille disse scenarier. Indtil det er for sent.