Australia estudia la obligatoriedad de los guardarraíles para la IA "de alto riesgo

17 de enero de 2024

Australia está estudiando la posibilidad de imponer barreras obligatorias al desarrollo y despliegue de la IA en entornos de "alto riesgo", en respuesta a las inquietudes suscitadas durante las consultas públicas.

El Ministro de Industria y Ciencia, Ed Husic, declaró: "Los australianos comprenden el valor de la inteligencia artificial, pero quieren que se identifiquen y aborden los riesgos".

Las medidas que el Gobierno australiano proponía aplicar se publicaron en un informe titulado: "Consulta sobre IA segura y responsable en Australia".

El informe afirmaba: "El Gobierno estudiará la posibilidad de imponer salvaguardias obligatorias a quienes desarrollen o desplieguen sistemas de IA en entornos legítimos de alto riesgo. Esto ayudará a garantizar que los sistemas de IA sean seguros cuando los daños sean difíciles o imposibles de revertir."

Reconoció que existían diversas opiniones sobre lo que constituían entornos de "alto riesgo", pero ofreció la lista adoptada en la Ley de AI de la UE como ejemplos:

  • determinadas infraestructuras críticas (agua, gas, electricidad)
  • productos sanitarios
  • sistemas que determinan el acceso a los centros de enseñanza o la contratación de personas
  • sistemas utilizados en la aplicación de la ley, el control de fronteras y la administración de justicia
  • identificación biométrica
  • reconocimiento de emociones.

Además, puso ejemplos como que la IA podría utilizarse para predecir la probabilidad de que una persona vuelva a delinquir, juzgar su idoneidad para un puesto de trabajo o controlar un vehículo autoconducido.

Si un fallo de la IA puede causar daños irreversibles, propone que haya leyes obligatorias que definan cómo se desarrolla y despliega la tecnología.

Algunas de las barreras propuestas incluyen etiquetas digitales o marcas de agua para identificar los contenidos generados por IA, requisitos de "participación humana" e incluso la prohibición total de los usos de IA que presenten riesgos inaceptables.

Entre los ejemplos propuestos de aplicaciones inaceptables figuraban la manipulación del comportamiento, la puntuación social y el reconocimiento facial a gran escala en tiempo real.

Regulación voluntaria por ahora

Es posible que pase algún tiempo antes de que los requisitos obligatorios propuestos se conviertan en ley. Mientras tanto, en una entrevista con ABC News, Husic dijo: "Queremos diseñar normas de seguridad voluntarias de inmediato y ser capaces de trabajar en ello y ser capaces de conseguir que la industria entienda lo que se supone que deben entregar y cómo se supone que deben entregarlo."

En sus alegaciones, OpenAI y Microsoft apoyaron las normativas voluntarias en lugar de apresurarse a aplicar las obligatorias.

El catedrático de Inteligencia Artificial de la Universidad de Nueva Gales del Sur Toby Walsh criticó este planteamiento y la falta de medidas concretas en el informe provisional.

El profesor Walsh dijo: "Es poco y llega un poco tarde. No hay mucho concreto, y gran parte se refiere a acuerdos voluntarios con la industria, y como hemos visto en el pasado, hacer que se marquen sus propios deberes quizá no sea la mejor idea."

El informe afirmaba que "la adopción de la IA y la automatización podría añadir entre $170.000 y $600.000 millones adicionales al año al PIB de Australia de aquí a 2030."

En un país notoriamente muy regulado, alcanzar esas cifras puede resultar difícil si Australia carga a los desarrolladores de IA con demasiados trámites burocráticos.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Eugene van der Watt

Eugene es ingeniero electrónico y le encanta todo lo relacionado con la tecnología. Cuando descansa de consumir noticias sobre IA, lo encontrará jugando al billar.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales