La Fundación Mundial para la Ética de los Datos, con más de 25.000 miembros, entre ellos profesionales de grandes empresas tecnológicas como Meta, Google y Samsung, ha creado un marco abierto para el desarrollo ético de la IA.
El nuevo marco propuesto presenta una lista de 84 preguntas en torno a tres procesos clave de desarrollo de la IA:
- Selección e ingestión de datos
- Creación o selección de algoritmos y modelos
- Gestión de datos de prueba y etiquetado
La carta abierta describe la iniciativa "Me-We-It: Una norma abierta para una IA responsable", cuyo objetivo es agilizar el desarrollo de la IA y hacerlo transparente, ético e integrador.
Es sencillo y sin tecnicismos, pensado para fomentar el debate en torno al desarrollo de la IA.
Puede vea y firme la carta aquí.
La propuesta también responde a la acuciante necesidad de que los responsables políticos se pongan al día en materia de regulación de la IA. Sostiene que, si bien una legislación como la Ley de Inteligencia Artificial de la UE es fundamental, la comunidad tecnológica puede crear proactivamente normas procesables para el desarrollo ético de la IA.
Según Vince Lynch, asesor del consejo de la Fundación Mundial para la Ética de los Datos, la comunidad de la IA se encuentra actualmente en la "fase del Salvaje Oeste, en la que se trata simplemente de: 'Sácalo a la luz y mira cómo va'".
Lynch, que inició el marco, advierte de los problemas relacionados con la IA en torno a la propiedad intelectual y los derechos humanos, que plantean riesgos inmediatos junto a las falsificaciones profundas y el fraude apoyado por la IA.
Marcos abiertos sobre IA: ¿tiene sentido?
Los marcos abiertos y voluntarios fomentan el debate, pero es difícil saber si se traducen en medidas prácticas.
Sam Altman, consejero delegado de OpenAI, ya ha abogado por una marco abierto con respecto a la IA, similar a lo que hemos observado en otras industrias. Otros líderes tecnológicos y funcionarios de la UE pidieron una regulación provisional para hacer cumplir las normas antes de que entre en vigor una legislación como la Ley de IA de la UE.
Hasta ahora, el desarrollo de la IA se ha llevado a cabo con normalidad. empresas como Inflection están construyendo una colosal infraestructura de entrenamiento de IA que supera todo lo que hemos visto hasta ahora.
La UE instó a las empresas tecnológicas a tomar medidas sobre contenidos de IA específicamente nocivos, incluidas las falsificaciones profundas, que ya contravienen normas como la Ley de Servicios Digitales de la UE.
Cuando los líderes de la UE y EE.UU. se reunieron en Suecia a finales de mayoLa Comisión Europea, en su reunión de marzo, debatió un posible "parche" normativo para frenar el desarrollo de la IA, pero no hay pruebas sustanciales de que la trayectoria de la tecnología haya cambiado.
El problema de las normas voluntarias es que son sólo eso: voluntarias. Las empresas de IA probablemente argumentarían que ya están respondiendo a las preguntas planteadas por la World Ethical Data Foundation.
Ni siquiera las normas obligatorias garantizan la consecución de sus objetivos, y la mitigación de los riesgos de la IA es un trabajo en curso.