La Fondazione mondiale per i dati etici rilascia un quadro aperto per l'IA

20 luglio 2023

Regolamentazione dell'IA

La World Ethical Data Foundation, con oltre 25.000 membri, tra cui professionisti di aziende tecnologiche leader come Meta, Google e Samsung, ha creato un quadro aperto per lo sviluppo etico dell'IA. 

Il nuovo framework proposto presenta una lista di controllo di 84 punti di domande relative a 3 processi chiave di sviluppo dell'IA:

  • Selezione e ingestione dei dati
  • Creazione o selezione di algoritmi e modelli
  • Gestione dei dati di test e tagging

La lettera aperta descrive il progetto "Me-We-It: An Open Standard for Responsible AI", che mira a semplificare lo sviluppo dell'IA rendendolo trasparente, etico e inclusivo. 

È semplice e non tecnico, pensato per promuovere il dibattito sullo sviluppo dell'IA.

È possibile visualizza e firma la lettera qui.

La proposta risponde anche alla pressante necessità dei politici di tenere il passo con la regolamentazione dell'IA. Il documento sostiene che, sebbene una legislazione come l'AI Act dell'UE sia fondamentale, la comunità tecnologica può creare in modo proattivo standard praticabili per lo sviluppo etico dell'AI.

Secondo Vince Lynch, consulente del consiglio di amministrazione della World Ethical Data Foundation, la comunità dell'IA si trova attualmente nella "fase del Far West, in cui si tratta semplicemente di: 'Buttiamo tutto all'aria aperta e vediamo come va'".

Lynch, che ha avviato il framework, mette in guardia dalle questioni legate all'IA che riguardano la proprietà intellettuale e i diritti umani, che pongono rischi immediati insieme ai falsi profondi e alle frodi supportate dall'IA. 

Quadri aperti sull'IA: ha senso?

I quadri aperti e volontari incoraggiano il dibattito, ma è difficile dire se si traducono in azioni concrete. 

Sam Altman, CEO di OpenAI, si è già espresso a favore di una quadro aperto in materia di IA, analogamente a quanto osservato in altri settori. Altri leader tecnologici e funzionari dell'UE hanno chiesto una regolamentazione provvisoria per far rispettare le regole prima dell'entrata in vigore di una normativa come l'EU AI Act. 

Finora, lo sviluppo dell'IA è un'attività ordinaria e aziende come Inflection stanno costruendo una colossale infrastruttura di addestramento dell'intelligenza artificiale che supera qualsiasi cosa abbiamo mai visto.

L'UE ha esortato le aziende tecnologiche ad agire sui contenuti di IA specificamente dannosi, tra cui i deep fake, che già violano norme come il Digital Services Act dell'UE.

Quando i leader di UE e USA si è riunito in Svezia alla fine di maggiohanno discusso di un potenziale "stop gap" normativo per rallentare lo sviluppo dell'IA, ma non ci sono prove sostanziali che la traiettoria della tecnologia sia cambiata. 

Il problema delle regole volontarie è che sono solo questo: volontarie. Le aziende di IA potrebbero sostenere che stanno già rispondendo alle domande poste dalla World Ethical Data Foundation. 

Anche le regole obbligatorie non garantiscono il raggiungimento dei loro obiettivi e la mitigazione dei rischi dell'IA è ancora in corso.

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Sam Jeans

Sam è uno scrittore di scienza e tecnologia che ha lavorato in diverse startup di intelligenza artificiale. Quando non scrive, lo si può trovare a leggere riviste mediche o a scavare tra scatole di dischi in vinile.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni