RAND Corporation, en tænketank med dybe forbindelser til teknologimilliardærers finansieringsnetværk, især gennem Open Philanthropy, spillede en afgørende rolle i udarbejdelsen af præsident Joe Bidens bekendtgørelse om kunstig intelligens.
Ifølge PolitikenDenne bekendtgørelse, som er stærkt påvirket af effektiv altruisme, en filosofi, der går ind for en datadrevet tilgang til filantropi, indførte omfattende krav til AI-rapportering.
RAND's engagement har løftet øjenbrynene på grund af den betydelige finansiering fra grupper som Open Philanthropy, der er knyttet til teknologiledere som Dustin Moskovitz. Ifølge Jeffrey Hiday, talsmand for RAND, eksisterer RAND for at "[udføre] forskning og analyse af dagens kritiske emner, [og] derefter [dele] denne forskning, analyse og ekspertise med politiske beslutningstagere."
Det indebar omfattende rådgivning om Seneste bekendtgørelseherunder udarbejdelse af de endelige dokumenter.
Tidligere i år modtog RAND Corporation over $15 millioner i diskretionære tilskud fra Open Philanthropy, øremærket til AI- og biosikkerhedsprojekter.
Open Philanthropy, der er kendt for sin effektive altruistiske tilgang, har både personlige og økonomiske forbindelser med AI-virksomheder som Anthropic og OpenAI.
Desuden er ledende personer på RAND flettet ind i virksomhedsrammerne for disse AI-virksomheder i det, der stadig er en relativt kompakt industri på højeste niveau, i hvert fald i USA.
Kritikere hævder, at tænketankens orientering mod effektiv altruisme kan skævvride dens forskningsfokus og overskygge umiddelbare AI-problemer som racefordomme eller krænkelse af ophavsretten.
Dynamikken på RAND afspejler også en bredere tendens, hvor Effektiv altruisme former i stigende grad AI-politikken - i det mindste ind i dens fortælling. Denne bevægelse, der støttes af kontroversielle personer som Sam Bankman-Fried, går ind for at håndtere langsigtede eksistentielle risici, herunder dem, som avanceret AI udgør, som f.eks. udvikling af biovåben.
Dette fokus er dog blevet kritiseret for potentielt at tjene de største teknologivirksomheders interesser ved at aflede opmærksomheden fra eksisterende AI-skader.
I bund og grund risikerer effektiv altruisme at udskyde øjeblikkelig, praktisk handling til fordel for mere hypotetiske, langsigtede planer.
OpenAI's interne kamp: altruisme vs. kommercialisering
OpenAI, oprindeligt en non-profitI dag kæmper de med spændingen mellem disse altruistiske mål og de forretningsmæssige realiteter, især efter investeringer som de $1 mia. fra Microsoft og den seneste værdiansættelse på $86 mia.
Det var relativt nemt for OpenAI at fastholde denne filosofi, da det var ret ensomt på toppen af den generative AI-industri.
Nu, hvor konkurrencen kommer stærkt, især Googles Gemini Ultrasom direkte truer GPT-4's overlegenhed, er det ikke særlig nemt at udvise tilbageholdenhed og forsigtighed og samtidig bevare den eftertragtede position øverst i bunken af AI-modeller.
Spændingerne hos OpenAI kulminerede med CEO Sam Altmans ledelse. Hans tilgang til ledelsen af OpenAI var et udtryk for konflikten mellem Silicon Valleys teknokapitalisme og den stigende fortælling om AI's risici. Folk spekulerede i, at Altman ikke tog sikkerheden alvorligt i virksomheden, men det er ikke blevet bekræftet.
På trods af bestyrelsesmedlemmernes bekymring for hans engagement i sikkerhed og gennemsigtighed betød Altmans genindsættelse som CEO et afgørende øjeblik i virksomhedens historie og rejste spørgsmål om indflydelsen fra effektiv altruisme og bestyrelsens magt.
Spørgsmålet er nu, om effektiv altruisme og langsigtede idealer kan eksistere side om side med de hurtige kommercielle og teknologiske fremskridt i AI-sektoren?
Regulering kan sikre AI's værdiskabende aktiviteter
Tidligere på året, Luke Sernaus memo hos Google foreslog, at open source AI-samfundet udgjorde en direkte udfordring for alle førende AI-udvikleres dominans.
I notatet står der: "Vi har kigget os meget over skulderen hos OpenAI. Hvem vil passere den næste milepæl? Hvad bliver det næste træk? Men den ubehagelige sandhed er, at vi ikke er i stand til at vinde dette våbenkapløb, og det er OpenAI heller ikke. Mens vi har skændtes, har en tredje fraktion stille og roligt spist vores frokost. Jeg taler selvfølgelig om open source."
Open source-modeller, eksemplificeret ved Metas LLaMA og Mistrals Mixtraler hurtigt ved at lukke kløften mellem græsrodsinnovation og big tech.
Selvom det præsenteres som et skridt i retning af ansvarlig AI-udvikling, kan virksomheder som Google og OpenAI's pres for AI-regulering også underminere open source AI-samfundet, som tilbyder et decentraliseret alternativ til de centraliserede modeller.
Open source-modeller er selvfølgelig også billigere og gør det muligt for virksomheder, forskningsinstitutioner, studerende og andre brugere at indbygge en vis grad af ejerskab og suverænitet i deres løsninger.
Er kommercielle AI-udviklere drevet af ægte bekymring for AI's sikre og etiske udvikling, eller er de til dels strategiske manøvrer for at bevare markedsdominans og kontrol over AI-innovation?
AI-industriens krydsfelt mellem altruisme, politik og handel er usædvanligt komplekst. Efterhånden som AI udvikler sig, vil der fortsat være delte meninger om at forene disse forskellige interesser.