OpenAI heeft een unieke overeenkomst getekend met de Amerikaanse overheid om samen te werken aan AI-veiligheidsonderzoek en -evaluatie.
Op donderdag heeft de Amerikaanse Kunstmatige intelligentie veiligheidsinstituut, onderdeel van het National Institute of Standards and Technology (NIST), kondigde aan dat het overeenkomsten had bereikt met zowel OpenAI als hun rivaal Anthropic.
De deal komt op het moment dat het bedrijf naar verluidt in gesprek is om financiering op te halen tegen een duizelingwekkende waardering van $100 miljard, wat laat zien dat OpenAI, ondanks een langzamere periode van vooruitgang, nog steeds volop vooruit gaat in de toekomst.
De partnerschappen geven de overheid toegang tot belangrijke nieuwe AI-modellen voor en na hun publicatie, hoewel het moeilijk is om te zien wat dit precies inhoudt.
De eerlijkheid gebiedt te zeggen dat zelfs AI-ontwikkelaars zelf niet echt begrijpen hoe hun modellen werken, dus de winst voor het NIST zou beperkt kunnen zijn. Desalniettemin is dit een poging om het overheidstoezicht op geheimzinnige grensverleggende AI-modellen te verdiepen.
We zijn blij dat we een overeenkomst hebben bereikt met de US AI Safety Institute voor pre-release tests van onze toekomstige modellen.
om vele redenen denken we dat het belangrijk is dat dit op nationaal niveau gebeurt. US moet blijven leiden!
- Sam Altman (@sama) 29 augustus 2024
"Veilige, betrouwbare AI is cruciaal voor de positieve impact van de technologie", zegt Jason Kwon, chief strategy officer bij OpenAI. "Wij geloven dat het instituut een cruciale rol te spelen heeft in het definiëren van Amerikaans leiderschap in het verantwoord ontwikkelen van kunstmatige intelligentie."
Elizabeth Kelly, directeur van het U.S. AI Safety Institute, noemde de deals "een belangrijke mijlpaal als we werken aan een verantwoord beheer van de toekomst van AI".
In het kader van deze overeenkomst zal het instituut feedback geven aan OpenAI over mogelijke veiligheidsverbeteringen aan hun modellen, in nauwe samenwerking met het UK AI Safety Institute, dat ook al een paar jaar samenwerkt met OpenAI. gevraagde toegang tot de innerlijke werking van AI-modellen.
De overeenkomsten hebben lang op zich laten wachten in de pogingen van de regering Biden om AI te reguleren. Ana Biden's uitvoeringsbesluitondertekend in oktober 2023, is AI-governance in de VS langzaam in een stroomversnelling gekomen, hoewel sommigen beweren dat de vooruitgang nog veel te wensen overlaat.
De timing van de overeenkomst is om twee redenen opmerkelijk. Ten eerste komt het op het moment dat OpenAI naar verluidt in gesprek is om een nieuwe ronde binnenhalen van financiering die het bedrijf zou waarderen op meer dan $100 miljard.
Dit astronomische bedrag vertegenwoordigt een meer dan verdrievoudiging ten opzichte van de gerapporteerde waardering van $29 miljard van vorig jaar.
Volgens bronnen die bekend zijn met de zaak zal Thrive Capital de ronde leiden met een investering van $1 miljard. Techgigant Microsoft, al de grootste geldschieter van OpenAI, zou ook deelnemen aan de financiering.
Ten tweede staat OpenAI naar verluidt op het punt om een nieuw product, GPT -5, uit te brengen, ZoekGPTof een andere iteratie met een codenaam "Project Aardbei."
Project Strawberry, dat aanvankelijk Q* heette, combineert naar verluidt een AI-model met een autonome AI-agent die in staat is om op het internet te surfen.
Cruciaal is dat OpenAI naar verluidt Strawberry heeft gedemonstreerd aan Amerikaanse veiligheidsfunctionarissen, wat mogelijk deel uitmaakte van deze nieuwe deal met het AI Safety Institute en NIST.
OpenAI is behoorlijk stil geweest, alles welbeschouwd. GPT-4o werd aangeprezen als een grote vooruitgang, maar het kroonjuweel - de voicechatfunctie - is nog niet massaal uitgerold. OpenAI noemt veiligheids- en regelgevingsbarrières als reden voor de vertraging.
Zou OpenAI deze nieuwe samenwerking aangaan om dergelijke problemen in de toekomst te voorkomen?