Rapport bestilt av USA sier at AI utgjør en trussel på "utryddelsesnivå"

13. mars 2024

En rapport bestilt av amerikanske myndigheter sier at det er behov for nye sikkerhetstiltak og retningslinjer for kunstig intelligens for å forhindre en "trussel på utryddelsesnivå mot menneskearten".

Rapporten, som er tilgjengelig på forespørsel, er utarbeidet av Gladstone AI, et selskap som ble etablert i 2022 med fokus på å gi råd til amerikanske myndigheter om muligheter og risikoer knyttet til kunstig intelligens. Rapporten, som har tittelen "An Action Plan to Increase the Safety and Security of Advanced AI", tok ett år å ferdigstille og ble finansiert med $250 000 av føderale midler.

Rapporten fokuserer på katastroferisikoen ved avansert kunstig intelligens og foreslår en omfattende handlingsplan for å redusere den. Forfatterne deler åpenbart ikke Yann LeCuns mer laissez-faire syn på AI-trusler.

Rapporten sier at "fremveksten av avansert AI og AGI [kunstig generell intelligens] har potensial til å destabilisere den globale sikkerheten på en måte som minner om innføringen av atomvåpen."

De to viktigste risikokategoriene er den tilsiktede våpenbruken av AI, og de utilsiktede konsekvensene av at en AGI blir useriøs.

For å forhindre at dette skjer, inneholder rapporten en handlingsplan bestående av fem tiltak som amerikanske myndigheter må iverksette.

Her er kortversjonen:

LOE1 - Etablere et AI-observatorium for bedre overvåking av AI-landskapet. Opprette en arbeidsgruppe for å fastsette regler for ansvarlig utvikling og bruk av kunstig intelligens. Bruk restriksjoner i leverandørkjeden for å få internasjonale aktører i AI-bransjen til å etterleve reglene.

LOE2 - Øke beredskapen for avansert AI-hendelsesrespons. Samordne arbeidsgrupper på tvers av etater, statlig AI-utdanning, rammeverk for tidlig varsling for å oppdage nye AI-trusler og scenariobaserte beredskapsplaner.

LOE3 - AI-laboratorier er mer fokusert på AI-utvikling enn AI-sikkerhet. Amerikanske myndigheter må finansiere avansert forskning på KI-sikkerhet, blant annet innen AGI-skalerbar tilpasning.

Utvikle sikkerhetsstandarder for ansvarlig utvikling og bruk av kunstig intelligens.

LOE4 - Etablere et "AI-reguleringsbyrå med myndighet til å fastsette regler og utstede lisenser".

Etablere et rammeverk for sivilrettslig og strafferettslig ansvar for å forhindre "uopprettelige konsekvenser i forbindelse med masseødeleggelsesvåpen, inkludert "nødfullmakter for å muliggjøre rask respons på trusler i rask bevegelse".

LOE5 - Etablere et AI-sikkerhetsregime i folkeretten, og sikre leverandørkjeden. Skape "internasjonal konsensus" om risikoer knyttet til kunstig intelligens med en AI-traktat som håndheves av FN eller et "internasjonalt AI-byrå".

Kort oppsummert kan AI være svært farlig, så vi trenger mange lover for å kontrollere den.

Rapporten sier at avanserte modeller med åpen kildekode er en dårlig idé, og at amerikanske myndigheter bør vurdere å gjøre det ulovlig å offentliggjøre vekten til AI-modeller under trussel om fengselsstraff.

Hvis du synes det høres litt alarmistisk og hardhendt ut, er du ikke alene. Rapporten har fått en del kritikk for sin mangel på vitenskapelig stringens.

Open source-forkjempere som William Falcon, administrerende direktør i Lightning AI, var spesielt kritiske til de generelle uttalelsene om farene ved åpne modeller.

Sannheten om risikoen avansert kunstig intelligens utgjør for menneskeheten ligger sannsynligvis et sted mellom "Vi kommer alle til å dø!" og "Det er ingen grunn til å bekymre seg".

Side 33 av en AI-undersøkelse som det refereres til i rapporten gir noen interessante eksempler på hvordan AI-modeller spiller systemet og lurer operatørene til å nå målet de er designet for å optimalisere for.

Når AI-modeller allerede utnytter smutthull for å nå et mål, er det vanskelig å avvise muligheten for at fremtidige supersmarte AI-modeller vil gjøre det samme. Og til hvilken pris?

Du kan lese sammendraget av rapporten rapportere her.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser