OpenAI onthult $1M subsidieprogramma voor cyberbeveiliging

3 juni 2023

Open AI cyberbeveiliging

OpenAI kondigde de lancering aan van zijn $1 miljoen subsidieprogramma voor cyberbeveiliging, een initiatief dat cyberbeveiliging wil doordrenken met AI en het debat over de rol van AI in cyberbeveiliging wil bevorderen.

Het initiatief is ontworpen om drie belangrijke doelen te bereiken:

  • Weerbaar maken van verdedigers: OpenAI wil verdedigers (organisaties en diensten die zich richten op het beschermen van systemen) uitrusten met geavanceerde AI-mogelijkheden. 
  • Impact meten: Ze zijn van plan om de effectiviteit van AI op cyberbeveiliging te meten. 
  • Discours bevorderen: OpenAI wil de regeling gebruiken om het debat aan te moedigen over de interactie tussen AI en cyberbeveiliging, inclusief de kansen en uitdagingen. 

OpenAI heeft verschillende projectideeën voorgesteld, waaronder het verzamelen en labelen van gegevens om cyberbeveiligingsagenten te trainen, het detecteren en beperken van social engineering-tactieken, het automatisch patchen van kwetsbaarheden, het identificeren van beveiligingsproblemen in broncode en het helpen bij forensisch onderzoek van netwerken of apparaten.

De $1 miljoen subsidie zal worden verstrekt in stappen van $10.000 via API-credits of directe financiering. Het bedrijf verklaarde dat ze prioriteit zullen geven aan applicaties die gelicenseerd en gedistribueerd worden voor "maximaal publiek voordeel en delen".

OpenAI subsidies en initiatieven 

Dit is niet de eerste keer dat OpenAI substantiële subsidies aanbiedt in ruil voor publieke inbreng. 

Op 25 mei kondigde het bedrijf tien $100.000 subsidies voor het ontwerpen van democratische processen die bepalen hoe AI-systemen moeten werken. Zo'n systeem zou de controle over AI democratiseren, zodat mensen met verschillende achtergronden kunnen stemmen over hoe AI voor hen - en voor de maatschappij als geheel - zou moeten werken. 

Enkele voorbeeldvragen waar OpenAI antwoorden op zoekt zijn:

  • "Hoe ver moet volgens jou de personalisatie van AI-assistenten zoals ChatGPT gaan om aan te sluiten bij de smaak en voorkeuren van een gebruiker? 
  • Welke grenzen moeten er eventueel bestaan in dit proces?
  • Hoe moeten AI-assistenten reageren op vragen over standpunten van prominenten? Moeten ze bijvoorbeeld neutraal zijn? Moeten ze weigeren te antwoorden? Moeten ze op de een of andere manier bronnen geven?
  • Onder welke voorwaarden, als die er zijn, zouden AI-assistenten medisch/financieel/juridisch advies mogen geven?"

OpenAI is zich bewust van zijn rol in het vormgeven van AI-technologie en de CEO, Sam Altman, heeft het publiek openlijk gewaarschuwd voor de risico's die AI met zich meebrengt. 

De bereidheid van het bedrijf om publieke samenwerking uit te nodigen is bewonderenswaardig. Maar om het eens te worden over zaken als AI-democratisering zal een nauwe samenwerking nodig zijn tussen OpenAI, Google, Anthropic en andere industriële hoofdrolspelers, wat een heel andere test is.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden