NSA annoncerer nyt sikkerhedscenter for AI-trusler

3. oktober 2023

Direktøren for NSA og USA's cyberkommando, general Paul Nakasone, annoncerede et nyt AI-sikkerhedscenter i en tale til The National Press Club.

Efterhånden som AI bliver mere integreret i forsvaret, den nationale sikkerhed og den civile infrastruktur, ser NSA i stigende grad behovet for at håndtere de tilknyttede risici.

En nylig undersøgelse foretaget af NSA identificerede sikring af AI-modeller mod tyveri og sabotage som en betydelig udfordring for den nationale sikkerhed.

Nakasone sagde: "AI vil i stigende grad få betydning for den nationale sikkerhed i diplomatiske, teknologiske og økonomiske spørgsmål for vores land og vores allierede og partnere." De "diplomatiske" og "teknologiske" aspekter af den nationale sikkerhed kommer mere og mere i fokus, efterhånden som verdensmagterne konkurrerer på AI-scenen.

"Vores modstandere, som i årtier har brugt tyveri og udnyttelse af vores intellektuelle ejendom til at fremme deres interesser, vil forsøge at udnytte vores fremskridt inden for AI og korrumpere vores anvendelse af den," sagde Nakasone uden udtrykkeligt at nævne Kina.

Det nye AI-sikkerhedscenter vil falde ind under det operationelle tilsyn af NSA's Cybersecurity Collaboration Center. Nakasone forklarede, at det nye center vil fokusere på at "fremme en sikker anvendelse af nye AI-kapaciteter på tværs af den nationale sikkerhedsvirksomhed og forsvarsindustrien."

AI: Både årsagen til og løsningen på problemet

De åbenlyse risici ved AI som våben er nogle af de klare og åbenlyse områder, som NSA fokuserer på.

NSA-direktøren sagde, at hans afdeling endnu ikke havde opdaget forsøg fra Kina eller Rusland på at påvirke det kommende amerikanske valg, men baseret på tidligere erfaringer var der stadig en risiko.

A nylig rapport fremhævede en stigning i cybersikkerhedsangreb fra kinesiske cyberaktører kendt som BlackTech. I takt med at AI bliver bedre, bliver disse angreb også mere sofistikerede og omfattende.

At bruge AI til at behandle store mængder data og informere om beslutninger for at identificere og afbøde disse risici er et attraktivt perspektiv. Men efterhånden som AI bliver indarbejdet i driften af nationale sikkerhedsorganisationer som NSA, åbner det dem også for nye risici.

Hvis vi ikke forstår præcis, hvordan en AI-model når frem til en anbefaling, kan vi så stole på den? Hvis modellen er tilbøjelig til bias eller hallucinationer, kan det underliggende datasæt så blive ødelagt af dårlige aktører?

Den CIA annoncerede, at de var ved at udvikle deres egen AI-version af ChatGPT, og DARPA forsker i hvordan man bruger AI til at træffe beslutninger på slagmarken. Forestil dig, hvad der kunne ske, hvis disse AI-værktøjer kunne påvirkes til at give dårlige råd.

NSA's sikkerhedscenter har til formål at beskytte disse institutioner mod, at deres teknologi bliver stjålet eller saboteret af USA's modstandere. Direktøren understregede også, at AI ikke ville automatisere nationale sikkerhedsbeslutninger.

"AI hjælper os, men vores beslutninger træffes af mennesker," siger Nakasone. Men jo bedre AI bliver, jo mere vil disse mennesker stole på den til at træffe deres beslutninger.

Og jo mere den nationale sikkerhed er afhængig af AI, jo mere sårbart bliver samfundet over for en AI-fejl eller sabotage.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser