Över 100 ledande AI-experter utfärdade ett öppet brev där de krävde att företag bakom generativ AI-teknik, som OpenAI, Meta och andra, öppnar sina dörrar för oberoende tester.
Deras budskap är tydligt: AI-utvecklarnas villkor hindrar oberoende forskning om säkerheten hos AI-verktyg.
Bland medsignaturerna finns ledande experter som Percy Liang från Stanford, Pulitzerprisvinnaren Julia Angwin, Renée DiResta från Stanford Internet Observatory, Deb Raji från Mozilla, f.d. EU-parlamentariker Marietje Schaake och Suresh Venkatasubramanian från Brown University.
Forskare menar att lärdomarna från de sociala mediernas era, då oberoende forskning ofta marginaliserades, inte bör upprepas.
För att bekämpa denna risk ber de att OpenAI, Meta, Anthropic, Google, Midjourney och andra skapar ett juridiskt och tekniskt säkert utrymme för forskare att utvärdera AI-produkter utan att vara rädda för att bli stämda eller förbjudna.
I brevet står det: "Medan företagens användarvillkor avskräcker från skadlig användning, erbjuder de inte heller något undantag för oberoende forskning i god tro, vilket gör att forskare riskerar att stänga av kontot eller till och med rättsliga repressalier."
AI-verktyg har strikta användningspolicyer för att förhindra att de manipuleras så att de kringgår sina skyddsräcken. Till exempel märkte OpenAI nyligen utredningsinsatser av New York Times som "hacking". och Meta hotade att dra tillbaka licenser på grund av tvister om immateriella rättigheter.
En nyligen genomförd studie undersöktes mitt under resan för att avslöja flera fall av upphovsrättsbrott, vilket skulle ha varit emot företagets villkor och regler.
Problemet är att eftersom AI-verktyg till stor del är oförutsägbara under huven är de beroende av att människor använder dem på ett specifikt sätt för att förbli "säkra".
Samma policyer gör det dock svårt för forskare att undersöka och förstå modeller.
Brevet, publicerad på MIT:s webbplats, åberopar två grunder:
1. "För det första skulle en juridisk safe harbor ersätta oberoende forskning i god tro om AI:s säkerhet, trygghet och pålitlighet, förutsatt att den bedrivs i enlighet med väletablerade regler för offentliggörande av sårbarheter."
2. "För det andra bör företagen engagera sig för en mer rättvis tillgång genom att använda oberoende granskare för att moderera forskarnas utvärderingsansökningar, vilket skulle skydda regelrätt säkerhetsforskning från kontraproduktiva kontosuspensioner och minska oron för att företagen väljer sina egna utvärderare."
I brevet presenteras också ett policyförslag, som utarbetats av några av undertecknarna, som föreslår ändringar i företagens användarvillkor för att tillgodose akademisk forskning och säkerhetsforskning.
Detta bidrar till ett bredare samförstånd om de risker som är förknippade med generativ AI, inklusive partiskhet, upphovsrättsintrång och skapandet av intima bilder utan samtycke.
Genom att förespråka en "säker hamn" för oberoende utvärderingar driver dessa experter frågan om allmänintresset och strävar efter att skapa ett ekosystem där AI-teknik kan utvecklas och användas på ett ansvarsfullt sätt, med samhällets välbefinnande i främsta rummet.