De World Ethical Data Foundation, met meer dan 25.000 leden, waaronder professionals van toonaangevende techbedrijven zoals Meta, Google en Samsung, heeft een open kader gecreëerd voor ethische AI-ontwikkeling.
Het nieuw voorgestelde raamwerk bevat een checklist van 84 punten met vragen over 3 belangrijke AI-ontwikkelingsprocessen:
- Gegevensselectie en -opname
- Creatie of selectie van algoritmen en modellen
- Testgegevens beheren en labelen
De open brief beschrijft "Me-We-It: An Open Standard for Responsible AI", gericht op het stroomlijnen van AI-ontwikkeling en het transparant, ethisch en inclusief maken ervan.
Het is eenvoudig en niet-technisch, ontworpen om het debat over AI-ontwikkeling te stimuleren.
U kunt bekijk en onderteken de brief hier.
Het voorstel speelt ook in op de dringende behoefte van beleidsmakers om de AI-regelgeving bij te houden. Het stelt dat, hoewel wetgeving zoals de EU AI Act van cruciaal belang is, de techgemeenschap proactief bruikbare normen voor ethische AI-ontwikkeling kan creëren.
Volgens Vince Lynch, adviseur van het bestuur van de World Ethical Data Foundation, bevindt de AI-gemeenschap zich momenteel in de "Wild West-fase, waarin het gewoon een beetje is: 'Gooi het eruit en kijk hoe het gaat'."
Lynch, die het initiatief nam voor het raamwerk, waarschuwt voor AI-gerelateerde problemen rond intellectueel eigendom en mensenrechten, die directe risico's vormen naast diepe vervalsingen en AI-ondersteunde fraude.
Open kaders voor AI: heeft het zin?
Open en vrijwillige kaders moedigen het debat aan, maar het is moeilijk te zeggen of ze tot praktische actie leiden.
OpenAI CEO Sam Altman heeft eerder gepleit voor een open kader met betrekking tot AI, vergelijkbaar met wat we in andere industrieën hebben gezien. Andere technologieleiders en EU-functionarissen riepen op tot tussentijdse regelgeving om regels af te dwingen voordat wetgeving zoals de EU AI Act van kracht wordt.
Tot nu toe is AI-ontwikkeling business as usual, en bedrijven zoals Inflection bouwen kolossale AI-trainingsinfrastructuur die alles overtreft wat we tot nu toe hebben gezien.
De EU drong er bij techbedrijven op aan om actie te ondernemen op specifiek schadelijke AI-inhoud, waaronder deep fakes, die al in strijd zijn met regels zoals de Digital Services Act van de EU.
Toen de leiders van de EU en de VS eind mei bijeengekomen in ZwedenZe bespraken een mogelijke regelgevende 'stop gap' om de ontwikkeling van AI te vertragen, maar er is geen substantieel bewijs dat het traject van de technologie is veranderd.
Het probleem met vrijwillige regels is dat ze gewoon vrijwillig zijn. AI-bedrijven zouden waarschijnlijk beweren dat ze al antwoord geven op de vragen van de World Ethical Data Foundation.
Zelfs verplichte regels bereiken hun doel niet gegarandeerd en het beperken van de risico's van AI is nog een werk in uitvoering.