La World Ethical Data Foundation, con oltre 25.000 membri, tra cui professionisti di aziende tecnologiche leader come Meta, Google e Samsung, ha creato un quadro aperto per lo sviluppo etico dell'IA.
Il nuovo framework proposto presenta una lista di controllo di 84 punti di domande relative a 3 processi chiave di sviluppo dell'IA:
- Selezione e ingestione dei dati
- Creazione o selezione di algoritmi e modelli
- Gestione dei dati di test e tagging
La lettera aperta descrive il progetto "Me-We-It: An Open Standard for Responsible AI", che mira a semplificare lo sviluppo dell'IA rendendolo trasparente, etico e inclusivo.
È semplice e non tecnico, pensato per promuovere il dibattito sullo sviluppo dell'IA.
È possibile visualizza e firma la lettera qui.
La proposta risponde anche alla pressante necessità dei politici di tenere il passo con la regolamentazione dell'IA. Il documento sostiene che, sebbene una legislazione come l'AI Act dell'UE sia fondamentale, la comunità tecnologica può creare in modo proattivo standard praticabili per lo sviluppo etico dell'AI.
Secondo Vince Lynch, consulente del consiglio di amministrazione della World Ethical Data Foundation, la comunità dell'IA si trova attualmente nella "fase del Far West, in cui si tratta semplicemente di: 'Buttiamo tutto all'aria aperta e vediamo come va'".
Lynch, che ha avviato il framework, mette in guardia dalle questioni legate all'IA che riguardano la proprietà intellettuale e i diritti umani, che pongono rischi immediati insieme ai falsi profondi e alle frodi supportate dall'IA.
Quadri aperti sull'IA: ha senso?
I quadri aperti e volontari incoraggiano il dibattito, ma è difficile dire se si traducono in azioni concrete.
Sam Altman, CEO di OpenAI, si è già espresso a favore di una quadro aperto in materia di IA, analogamente a quanto osservato in altri settori. Altri leader tecnologici e funzionari dell'UE hanno chiesto una regolamentazione provvisoria per far rispettare le regole prima dell'entrata in vigore di una normativa come l'EU AI Act.
Finora, lo sviluppo dell'IA è un'attività ordinaria e aziende come Inflection stanno costruendo una colossale infrastruttura di addestramento dell'intelligenza artificiale che supera qualsiasi cosa abbiamo mai visto.
L'UE ha esortato le aziende tecnologiche ad agire sui contenuti di IA specificamente dannosi, tra cui i deep fake, che già violano norme come il Digital Services Act dell'UE.
Quando i leader di UE e USA si è riunito in Svezia alla fine di maggiohanno discusso di un potenziale "stop gap" normativo per rallentare lo sviluppo dell'IA, ma non ci sono prove sostanziali che la traiettoria della tecnologia sia cambiata.
Il problema delle regole volontarie è che sono solo questo: volontarie. Le aziende di IA potrebbero sostenere che stanno già rispondendo alle domande poste dalla World Ethical Data Foundation.
Anche le regole obbligatorie non garantiscono il raggiungimento dei loro obiettivi e la mitigazione dei rischi dell'IA è ancora in corso.