OpenAI annoncerede lanceringen af sin $1 millioner i tilskudsprogram for cybersikkerhedet initiativ, der har til formål at tilføre cybersikkerhed AI og fremme diskussionen om AI's rolle i cybersikkerhed.
Initiativet er designet til at opnå tre hovedmål:
- Styrk forsvarerne: OpenAI har til hensigt at udstyre forsvarere (organisationer og tjenester, der fokuserer på at beskytte systemer) med avancerede AI-kapaciteter.
- Mål effekten: De har til hensigt at måle effektiviteten af AI på cybersikkerhed.
- Fremme diskursen: OpenAI har til hensigt at bruge ordningen til at fremme debatten om samspillet mellem AI og cybersikkerhed, herunder muligheder og udfordringer.
OpenAI har foreslået flere projektideer, herunder indsamling og mærkning af data til at træne cybersikkerhedsagenter, opdage og afbøde social engineering-taktikker, automatiseret sårbarhedspatching, identificering af sikkerhedsproblemer i kildekode og hjælp til retsmedicinske undersøgelser af netværk eller enheder.
Tilskuddet på $1 million vil blive udstedt i trin på $10.000 gennem API-kreditter eller direkte finansiering. Virksomheden oplyste, at de vil prioritere applikationer, der er licenseret og distribueret til "maksimal offentlig fordel og deling".
OpenAI-bevillinger og -initiativer
Det er ikke første gang, OpenAI tilbyder betydelige tilskud til gengæld for offentligt input.
Den 25. maj annoncerede virksomheden ti $100.000 tilskud til at designe demokratiske processer, der bestemmer, hvordan AI-systemer skal fungere. Et sådant system ville demokratisere kontrollen over AI og gøre det muligt for folk med forskellige baggrunde at stemme om, hvordan det skal fungere for dem - og for samfundet som helhed.
Nogle af de spørgsmål, OpenAI søger svar på, er f.eks:
- "Hvor langt mener du, at personalisering af AI-assistenter som ChatGPT skal gå for at tilpasse sig en brugers smag og præferencer?
- Hvilke grænser, om nogen, skal der være i denne proces?
- Hvordan skal AI-assistenter reagere på spørgsmål om offentlige personers synspunkter? Skal de f.eks. være neutrale? Skal de nægte at svare? Skal de angive kilder af en eller anden art?
- Under hvilke betingelser, om nogen, bør AI-assistenter have lov til at give medicinsk/økonomisk/juridisk rådgivning?"
OpenAI er bevidst om sin rolle i udformningen af AI-teknologi, og CEO Sam Altman har åbent advaret offentligheden om de risici, som AI udgør.
Virksomhedens vilje til at invitere til offentligt samarbejde er beundringsværdig. Men at blive enige om spørgsmål som AI-demokratisering vil kræve et tæt samarbejde mellem OpenAI, Google, Anthropic og andre aktører i branchen, hvilket er en helt anden test.