Onderzoekers sluiten zich aan bij open brief waarin wordt gepleit voor onafhankelijke AI-evaluaties

7 maart 2024

Meer dan 100 vooraanstaande AI-experts hebben een open brief uitgebracht waarin ze eisen dat bedrijven achter generatieve AI-technologieën, zoals OpenAI, Meta en anderen, hun deuren openen voor onafhankelijke tests. 

Hun boodschap is duidelijk: de voorwaarden van AI-ontwikkelaars remmen onafhankelijk onderzoek naar de veiligheid van AI-tools. 

Mede-ondertekenaars zijn vooraanstaande experts zoals Percy Liang van Stanford, Pulitzer Prize-winnares Julia Angwin, Renée DiResta van Stanford Internet Observatory, Mozilla Fellow Deb Raji, ex-Europees parlementslid Marietje Schaake en Suresh Venkatasubramanian van Brown University.

Onderzoekers stellen dat de lessen uit het tijdperk van de sociale media, toen onafhankelijk onderzoek vaak werd gemarginaliseerd, niet moeten worden herhaald.

Om dit risico tegen te gaan, vragen ze OpenAI, Meta, Anthropic, Google, Midjourney en anderen om een juridische en technische veilige ruimte te creëren voor onderzoekers om AI-producten te evalueren zonder bang te hoeven zijn om aangeklaagd of verboden te worden.

In de brief staat: "Hoewel de servicevoorwaarden van bedrijven kwaadwillig gebruik ontmoedigen, bieden ze ook geen vrijstelling voor onafhankelijk onderzoek te goeder trouw, waardoor onderzoekers het risico lopen op schorsing van hun account of zelfs juridische represailles."

AI-tools hebben een strikt gebruiksbeleid om te voorkomen dat ze worden gemanipuleerd om hun bescherming te omzeilen. OpenAI merkte bijvoorbeeld onlangs onderzoeksinspanningen door de New York Times als "hacken," en Meta dreigde licenties in te trekken vanwege geschillen over intellectueel eigendom. 

Een recent onderzoek Midden in de reis om talrijke gevallen van schending van auteursrechten te onthullen, wat in strijd zou zijn geweest met de algemene voorwaarden van het bedrijf.

Het probleem is dat AI-tools onder de motorkap grotendeels onvoorspelbaar zijn en dat ze afhankelijk zijn van mensen die ze op een specifieke manier gebruiken om 'veilig' te blijven. 

Datzelfde beleid maakt het echter moeilijk voor onderzoekers om modellen te onderzoeken en te begrijpen. 

De brief, gepubliceerd op de website van MITvoert twee pleidooien:

1. "Ten eerste zou een wettelijke veilige haven te goeder trouw onafhankelijk AI-onderzoek naar veiligheid, beveiliging en betrouwbaarheid vrijwaren, op voorwaarde dat dit wordt uitgevoerd in overeenstemming met gevestigde regels voor het openbaar maken van kwetsbaarheden."

2. "Ten tweede zouden bedrijven zich moeten inzetten voor een eerlijkere toegang door onafhankelijke beoordelaars te gebruiken om de beoordelingsaanvragen van onderzoekers te modereren, wat veiligheidsonderzoek dat zich aan de regels houdt zou beschermen tegen contraproductieve opschortingen van accounts en het probleem zou verminderen dat bedrijven hun eigen beoordelaars kiezen."

De brief introduceert ook een beleidsvoorstel, mede opgesteld door enkele ondertekenaars, dat wijzigingen in de servicevoorwaarden van de bedrijven voorstelt om academisch en veiligheidsonderzoek mogelijk te maken.

Dit draagt bij aan een bredere consensus over de risico's van generatieve AI, waaronder vooringenomenheid, schending van auteursrecht en het creëren van niet-consensuele intieme beelden. 

Door te pleiten voor een "veilige haven" voor onafhankelijke evaluatie, komen deze experts op voor het algemeen belang en streven ze naar een ecosysteem waarin AI-technologieën op verantwoorde wijze kunnen worden ontwikkeld en ingezet, waarbij het welzijn van de samenleving voorop staat.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden