Forskere slutter sig til åbent brev, der opfordrer til uafhængige AI-evalueringer

7. marts 2024

Over 100 førende AI-eksperter har udsendt et åbent brev, hvor de kræver, at virksomheder bag generative AI-teknologier, som OpenAI, Meta og andre, åbner deres døre for uafhængige tests. 

Deres budskab er klart: AI-udviklernes vilkår og betingelser begrænser den uafhængige forskning i AI-værktøjers sikkerhed. 

Medunderskrivere er førende eksperter som Percy Liang fra Stanford, Pulitzer-prisvinderen Julia Angwin, Renée DiResta fra Stanford Internet Observatory, Mozilla Fellow Deb Raji, tidligere medlem af Europa-Parlamentet Marietje Schaake og Suresh Venkatasubramanian fra Brown University.

Forskere hævder, at erfaringerne fra de sociale mediers æra, hvor uafhængig forskning ofte blev marginaliseret, ikke bør gentages.

For at bekæmpe denne risiko beder de OpenAI, Meta, Anthropic, Google, Midjourney og andre om at skabe et juridisk og teknisk sikkerhedsrum, hvor forskere kan evaluere AI-produkter uden at frygte at blive sagsøgt eller forbudt.

I brevet står der: "Mens virksomhedernes servicevilkår afskrækker fra ondsindet brug, giver de heller ingen undtagelse for uafhængig forskning i god tro, hvilket efterlader forskere med risiko for kontosuspension eller endda juridiske repressalier."

AI-værktøjer indfører strenge brugspolitikker for at forhindre, at de bliver manipuleret til at omgå deres sikkerhedsnet. For eksempel stemplede OpenAI for nylig efterforskningsindsatsen fra New York Times som "hacking". og Meta truede med at trække licenser tilbage på grund af tvister om intellektuel ejendomsret. 

En nylig undersøgelse undersøgt midt på rejsen for at afsløre adskillige tilfælde af brud på ophavsretten, hvilket ville have været i strid med virksomhedens vilkår og betingelser.

Problemet er, at eftersom AI-værktøjer i høj grad er uforudsigelige under motorhjelmen, er de afhængige af, at folk bruger dem på en bestemt måde for at forblive 'sikre'. 

Men de samme politikker gør det svært for forskere at undersøge og forstå modeller. 

Brevet, offentliggjort på MIT's hjemmeside, kommer med to opfordringer:

1. "For det første vil en juridisk safe harbor holde uafhængig forskning i AI-sikkerhed i god tro skadesløs, forudsat at den udføres i overensstemmelse med veletablerede regler for offentliggørelse af sårbarheder."

2. "For det andet bør virksomhederne forpligte sig til mere lige adgang ved at bruge uafhængige bedømmere til at moderere forskernes evalueringsansøgninger, hvilket vil beskytte regelret sikkerhedsforskning mod kontraproduktive kontosuspensioner og mindske bekymringen for, at virksomhederne vælger deres egne bedømmere."

Brevet introducerer også et politisk forslag, som nogle af underskriverne har været med til at udarbejde, og som foreslår ændringer i virksomhedernes servicevilkår for at imødekomme akademisk forskning og sikkerhedsforskning.

Dette bidrager til at udvide konsensus om de risici, der er forbundet med generativ AI, herunder bias, krænkelse af ophavsret og skabelse af intime billeder uden samtykke. 

Ved at slå til lyd for en "sikker havn" for uafhængig evaluering kæmper disse eksperter for den offentlige interesse og sigter mod at skabe et økosystem, hvor AI-teknologier kan udvikles og anvendes på en ansvarlig måde med samfundets velfærd i højsædet.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser