Over 100 ledende AI-eksperter har sendt ut et åpent brev der de krever at selskaper som står bak generativ AI-teknologi, som OpenAI, Meta og andre, åpner dørene for uavhengig testing.
Budskapet deres er klart: AI-utviklernes vilkår og betingelser hindrer uavhengig forskning på sikkerheten til AI-verktøy.
Blant medunderskriverne finner vi ledende eksperter som Percy Liang fra Stanford, Pulitzer-prisvinner Julia Angwin, Renée DiResta fra Stanford Internet Observatory, Deb Raji fra Mozilla Fellow, Marietje Schaake, tidligere medlem av Europaparlamentet, og Suresh Venkatasubramanian fra Brown University.
Forskerne mener at erfaringene fra de sosiale medienes tid, da uavhengig forskning ofte ble marginalisert, ikke bør gjentas.
For å bekjempe denne risikoen ber de OpenAI, Meta, Anthropic, Google, Midjourney og andre om å skape et juridisk og teknisk trygt rom der forskere kan evaluere AI-produkter uten å være redde for å bli saksøkt eller utestengt.
I brevet står det: "Selv om selskapenes tjenestevilkår hindrer ondsinnet bruk, gir de heller ingen unntak for uavhengig forskning i god tro, noe som gjør at forskere risikerer å få kontoen suspendert eller til og med bli utsatt for juridiske represalier."
AI-verktøyene har strenge retningslinjer for bruk for å hindre at de blir manipulert til å omgå sikkerhetsmekanismene sine. For eksempel merket OpenAI nylig etterforskningsinnsatsen til New York Times som "hacking". og Meta truet med å trekke tilbake lisenser på grunn av tvister om immaterielle rettigheter.
En fersk undersøkelse undersøkt midtveis i reisen for å avsløre en rekke tilfeller av brudd på opphavsretten, noe som ville ha vært i strid med selskapets vilkår og betingelser.
Problemet er at siden AI-verktøy i stor grad er uforutsigbare under panseret, er de avhengige av at folk bruker dem på en bestemt måte for å forbli "trygge".
De samme retningslinjene gjør det imidlertid vanskelig for forskere å undersøke og forstå modeller.
Brevet, publisert på MITs nettsider...kommer med to anmodninger:
1. "For det første vil en juridisk safe harbor kunne beskytte uavhengig forskning på AI-sikkerhet og pålitelighet, forutsatt at den utføres i god tro og i samsvar med veletablerte regler for offentliggjøring av sårbarheter."
2. "For det andre bør selskapene forplikte seg til mer rettferdig tilgang ved å bruke uavhengige granskere til å moderere forskernes evalueringssøknader, noe som vil beskytte regelrett sikkerhetsforskning mot kontraproduktive kontosuspensjoner, og redusere bekymringen for at selskapene velger sine egne evaluatorer."
Brevet inneholder også et forslag til retningslinjer, som noen av underskriverne har vært med på å utforme, og som foreslår endringer i selskapenes tjenestevilkår for å legge til rette for akademisk forskning og sikkerhetsforskning.
Dette bidrar til å utvide konsensusen om risikoen forbundet med generativ AI, blant annet skjevheter, brudd på opphavsretten og skaping av intime bilder uten samtykke.
Ved å ta til orde for en "trygg havn" for uavhengig evaluering kjemper disse ekspertene for allmennhetens interesser, med mål om å skape et økosystem der AI-teknologier kan utvikles og tas i bruk på en ansvarlig måte, med samfunnets ve og vel i høysetet.