En rapport bestilt af den amerikanske regering siger, at der er brug for nye sikkerhedsforanstaltninger og politikker for kunstig intelligens for at forhindre en "trussel på udryddelsesniveau mod den menneskelige art".
Rapporten, som kan rekvireres, er udarbejdet af Gladstone AI, en virksomhed, der blev oprettet i 2022 med fokus på at rådgive amerikanske regeringsafdelinger om muligheder og risici ved kunstig intelligens. Rapporten, der har titlen "An Action Plan to Increase the Safety and Security of Advanced AI", tog et år at færdiggøre og blev finansieret af $250.000 føderale penge.
Rapporten fokuserer på katastrofale risici fra avanceret AI og foreslår en omfattende handlingsplan for at afbøde dem. Forfatterne deler tydeligvis ikke Yann LeCuns mere laissez-faire syn på AI-trusler.
Rapporten siger: "Fremkomsten af avanceret AI og AGI [kunstig generel intelligens] har potentiale til at destabilisere den globale sikkerhed på måder, der minder om indførelsen af atomvåben."
De to vigtigste risikokategorier er den bevidste brug af AI som våben og de utilsigtede konsekvenser af, at en AGI går amok.
For at forhindre, at det sker, indeholder rapporten en handlingsplan bestående af fem indsatsområder, som den amerikanske regering skal indføre.
Her er den korte version:
LOE1 - Etablere et AI-observatorium for bedre overvågning af AI-landskabet. Nedsæt en taskforce til at fastsætte regler for ansvarlig AI-udvikling og -anvendelse. Brug restriktioner i forsyningskæden til at få internationale AI-industriaktører til at overholde reglerne.
LOE2 - Øge beredskabet til at reagere på avancerede AI-hændelser. Koordiner arbejdsgrupper på tværs af instanser, statslig AI-uddannelse, rammer for tidlig varsling for at opdage nye AI-trusler og scenariebaserede beredskabsplaner.
LOE3 - AI-laboratorier er mere fokuserede på AI-udvikling end på AI-sikkerhed. Den amerikanske regering er nødt til at finansiere avanceret forskning i AI-sikkerhed, herunder i AGI-skalerbar tilpasning.
Udvikle sikkerhedsstandarder for ansvarlig AI-udvikling og -anvendelse.
LOE4 - Etablere et "AI-reguleringsagentur med beføjelser til at udstede regler og licenser".
Etablering af en ramme for civilretligt og strafferetligt ansvar for at forhindre "uoprettelige konsekvenser i forbindelse med masseødelæggelsesvåben, herunder "nødbeføjelser til at muliggøre hurtig reaktion på trusler, der bevæger sig hurtigt."
LOE5 - Etablere et AI-sikkerhedsregime i international lovgivning og sikre forsyningskæden. Skab "international konsensus" om AI-risici med en AI-traktat, der håndhæves af FN eller et "internationalt AI-agentur".
Kort sagt kan kunstig intelligens være meget farlig, så vi har brug for en masse love til at kontrollere den.
Rapporten siger, at avancerede open source-modeller er en dårlig idé, og at den amerikanske regering bør overveje at gøre det ulovligt at frigive vægten af AI-modeller under trussel om fængselsstraf.
Hvis du synes, det lyder lidt alarmistisk og hårdhændet, er du ikke alene. Rapporten er blevet kritiseret for sin manglende videnskabelige stringens.
i tilfælde af at du spekulerer på, hvor alvorligt du skal tage denne nylige rapport pic.twitter.com/Uy47sTmE0Z
- xlr8harder (@xlr8harder) 12. marts 2024
Open source-fortalere som William Falcon, CEO for Lightning AI, var især kritiske over for de generelle udtalelser om farerne ved åbne modeller.
Farenheight 451, men for modelvægte...
Ifølge TIME vil open source AI forårsage en "udryddelsesbegivenhed for mennesker" 🙄.
for det første er det en meget fjollet påstand. men hvis du virkelig vil tage din sølvpapirshat på, er det mere sandsynligt, at AI med tæt kilde er årsag til dettehttps://t.co/x4bctSjamZ pic.twitter.com/PYuwnoIbda
- William Falcon ⚡️ (@_willfalcon) 12. marts 2024
Sandheden om de risici, som avanceret AI udgør for menneskeheden, ligger nok et sted mellem "Vi kommer alle til at dø!" og "Der er ingen grund til at bekymre sig."
Side 33 af en AI-undersøgelse, som der henvises til i rapporten giver nogle interessante eksempler på, hvordan AI-modeller leger med systemet og narrer operatørerne til at nå det mål, de er designet til at optimere til.
Når AI-modeller allerede udnytter smuthuller for at nå et mål, er det svært at afvise muligheden for, at fremtidige supersmarte AI-modeller vil gøre det samme. Og til hvilken pris?
Du kan læse resuméet af rapporten Rapport her.