Meer dan 100 vooraanstaande AI-experts hebben een open brief uitgebracht waarin ze eisen dat bedrijven achter generatieve AI-technologieën, zoals OpenAI, Meta en anderen, hun deuren openen voor onafhankelijke tests.
Hun boodschap is duidelijk: de voorwaarden van AI-ontwikkelaars remmen onafhankelijk onderzoek naar de veiligheid van AI-tools.
Mede-ondertekenaars zijn vooraanstaande experts zoals Percy Liang van Stanford, Pulitzer Prize-winnares Julia Angwin, Renée DiResta van Stanford Internet Observatory, Mozilla Fellow Deb Raji, ex-Europees parlementslid Marietje Schaake en Suresh Venkatasubramanian van Brown University.
Onderzoekers stellen dat de lessen uit het tijdperk van de sociale media, toen onafhankelijk onderzoek vaak werd gemarginaliseerd, niet moeten worden herhaald.
Om dit risico tegen te gaan, vragen ze OpenAI, Meta, Anthropic, Google, Midjourney en anderen om een juridische en technische veilige ruimte te creëren voor onderzoekers om AI-producten te evalueren zonder bang te hoeven zijn om aangeklaagd of verboden te worden.
In de brief staat: "Hoewel de servicevoorwaarden van bedrijven kwaadwillig gebruik ontmoedigen, bieden ze ook geen vrijstelling voor onafhankelijk onderzoek te goeder trouw, waardoor onderzoekers het risico lopen op schorsing van hun account of zelfs juridische represailles."
AI-tools hebben een strikt gebruiksbeleid om te voorkomen dat ze worden gemanipuleerd om hun bescherming te omzeilen. OpenAI merkte bijvoorbeeld onlangs onderzoeksinspanningen door de New York Times als "hacken," en Meta dreigde licenties in te trekken vanwege geschillen over intellectueel eigendom.
Een recent onderzoek Midden in de reis om talrijke gevallen van schending van auteursrechten te onthullen, wat in strijd zou zijn geweest met de algemene voorwaarden van het bedrijf.
Het probleem is dat AI-tools onder de motorkap grotendeels onvoorspelbaar zijn en dat ze afhankelijk zijn van mensen die ze op een specifieke manier gebruiken om 'veilig' te blijven.
Datzelfde beleid maakt het echter moeilijk voor onderzoekers om modellen te onderzoeken en te begrijpen.
De brief, gepubliceerd op de website van MITvoert twee pleidooien:
1. "Ten eerste zou een wettelijke veilige haven te goeder trouw onafhankelijk AI-onderzoek naar veiligheid, beveiliging en betrouwbaarheid vrijwaren, op voorwaarde dat dit wordt uitgevoerd in overeenstemming met gevestigde regels voor het openbaar maken van kwetsbaarheden."
2. "Ten tweede zouden bedrijven zich moeten inzetten voor een eerlijkere toegang door onafhankelijke beoordelaars te gebruiken om de beoordelingsaanvragen van onderzoekers te modereren, wat veiligheidsonderzoek dat zich aan de regels houdt zou beschermen tegen contraproductieve opschortingen van accounts en het probleem zou verminderen dat bedrijven hun eigen beoordelaars kiezen."
De brief introduceert ook een beleidsvoorstel, mede opgesteld door enkele ondertekenaars, dat wijzigingen in de servicevoorwaarden van de bedrijven voorstelt om academisch en veiligheidsonderzoek mogelijk te maken.
Dit draagt bij aan een bredere consensus over de risico's van generatieve AI, waaronder vooringenomenheid, schending van auteursrecht en het creëren van niet-consensuele intieme beelden.
Door te pleiten voor een "veilige haven" voor onafhankelijke evaluatie, komen deze experts op voor het algemeen belang en streven ze naar een ecosysteem waarin AI-technologieën op verantwoorde wijze kunnen worden ontwikkeld en ingezet, waarbij het welzijn van de samenleving voorop staat.