Australia está estudiando la posibilidad de imponer barreras obligatorias al desarrollo y despliegue de la IA en entornos de "alto riesgo", en respuesta a las inquietudes suscitadas durante las consultas públicas.
El Ministro de Industria y Ciencia, Ed Husic, declaró: "Los australianos comprenden el valor de la inteligencia artificial, pero quieren que se identifiquen y aborden los riesgos".
Las medidas que el Gobierno australiano proponía aplicar se publicaron en un informe titulado: "Consulta sobre IA segura y responsable en Australia".
Hemos escuchado sus comentarios sobre nuestro #ResponsableAI consulta.#AusGovLa respuesta provisional de la Comisión contribuirá a #AI regulación de forma que beneficie a las personas, al gobierno y a las empresas de Australia.
Más información: https://t.co/K4WTM4EK7m pic.twitter.com/TgsMmrySXw
- Departamento de Industria, Ciencia y Recursos (@IndustryGovAu) 16 de enero de 2024
El informe afirmaba: "El Gobierno estudiará la posibilidad de imponer salvaguardias obligatorias a quienes desarrollen o desplieguen sistemas de IA en entornos legítimos de alto riesgo. Esto ayudará a garantizar que los sistemas de IA sean seguros cuando los daños sean difíciles o imposibles de revertir."
Reconoció que existían diversas opiniones sobre lo que constituían entornos de "alto riesgo", pero ofreció la lista adoptada en la Ley de AI de la UE como ejemplos:
- determinadas infraestructuras críticas (agua, gas, electricidad)
- productos sanitarios
- sistemas que determinan el acceso a los centros de enseñanza o la contratación de personas
- sistemas utilizados en la aplicación de la ley, el control de fronteras y la administración de justicia
- identificación biométrica
- reconocimiento de emociones.
Además, puso ejemplos como que la IA podría utilizarse para predecir la probabilidad de que una persona vuelva a delinquir, juzgar su idoneidad para un puesto de trabajo o controlar un vehículo autoconducido.
Si un fallo de la IA puede causar daños irreversibles, propone que haya leyes obligatorias que definan cómo se desarrolla y despliega la tecnología.
Algunas de las barreras propuestas incluyen etiquetas digitales o marcas de agua para identificar los contenidos generados por IA, requisitos de "participación humana" e incluso la prohibición total de los usos de IA que presenten riesgos inaceptables.
Entre los ejemplos propuestos de aplicaciones inaceptables figuraban la manipulación del comportamiento, la puntuación social y el reconocimiento facial a gran escala en tiempo real.
Regulación voluntaria por ahora
Es posible que pase algún tiempo antes de que los requisitos obligatorios propuestos se conviertan en ley. Mientras tanto, en una entrevista con ABC News, Husic dijo: "Queremos diseñar normas de seguridad voluntarias de inmediato y ser capaces de trabajar en ello y ser capaces de conseguir que la industria entienda lo que se supone que deben entregar y cómo se supone que deben entregarlo."
En sus alegaciones, OpenAI y Microsoft apoyaron las normativas voluntarias en lugar de apresurarse a aplicar las obligatorias.
El catedrático de Inteligencia Artificial de la Universidad de Nueva Gales del Sur Toby Walsh criticó este planteamiento y la falta de medidas concretas en el informe provisional.
El profesor Walsh dijo: "Es poco y llega un poco tarde. No hay mucho concreto, y gran parte se refiere a acuerdos voluntarios con la industria, y como hemos visto en el pasado, hacer que se marquen sus propios deberes quizá no sea la mejor idea."
El informe afirmaba que "la adopción de la IA y la automatización podría añadir entre $170.000 y $600.000 millones adicionales al año al PIB de Australia de aquí a 2030."
En un país notoriamente muy regulado, alcanzar esas cifras puede resultar difícil si Australia carga a los desarrolladores de IA con demasiados trámites burocráticos.