OpenAI har ändrat sin användningspolicy för att tillåta att dess AI-produkter används i vissa militära applikationer när företaget samarbetar med Pentagon i flera projekt.
OpenAI arbetar med flera projekt inom försvarsdepartementet, bland annat med cybersäkerhetsfunktioner och metoder för att förhindra självmord bland veteraner. OpenAI bistår också DARPA med dess AI Cyber Challenge för att automatiskt hitta och åtgärda sårbarheter i programvara och försvara kritisk infrastruktur från cyberattacker.
OpenAI: s engagemang med den amerikanska militären är ett avsteg från sin tidigare policy att förbjuda militär användning av sina produkter. Fram till för några dagar sedan listade dess användningspolicysida "militär och krigföring" i listan över otillåtna applikationer.
I de uppdaterade villkoren nämns inte längre ordet militär, men det står fortfarande att verktygen inte får användas för att skada någon eller för att utveckla vapen.
I en intervju på Bloomberg House vid World Economic Forum i Davos sa Anna Makanju, OpenAIs VP för globala frågor: "Eftersom vi tidigare hade vad som i huvudsak var ett allmänt förbud mot militär, trodde många människor att det skulle förbjuda många av dessa användningsfall, som människor tycker är mycket i linje med vad vi vill se i världen."
Anställda i Silicon Valley på stora teknikföretag har ofta varit tveksamma till att se sina ingenjörsinsatser användas i militära tillämpningar.
Under 2019 undertecknade Microsoft-anställda ett brev där de protesterade mot företagets kontrakt på $480 miljoner för att förse den amerikanska armén med headsets för förstärkt verklighet. Förra året protesterade anställda på Google och Microsoft mot ett gemensamt projekt som skulle innebära att företagen skulle tillhandahålla molntjänster till den israeliska regeringen och militären.
En talesman för OpenAI sa till CNB: "Vår policy tillåter inte att våra verktyg används för att skada människor, utveckla vapen, för kommunikationsövervakning eller för att skada andra eller förstöra egendom. Det finns dock användningsfall för nationell säkerhet som överensstämmer med vårt uppdrag.
Om det uppdraget innefattar att tjäna pengar åt aktieägarna kan OpenAI ha tagit det första steget på ett sluttande plan. Kan vi få se "WarGPT" i framtiden?
I november sa vice försvarsminister Kathleen Hicks att AI är "en viktig del av den omfattande, krigsförbandscentrerade strategi för innovation som försvarsminister Austin och jag har drivit från dag 1".
Det verkar oundvikligt att AI kommer att användas i ett brett spektrum av militära tillämpningar, inklusive vapen. Frågan är vems AI-modeller som kommer att finnas under huven?