El CEO de OpenAI enmarca la regulación de las IA superinteligentes

24 de mayo de 2023

Reglamento OpenAI

Sam Altman, CEO de OpenAI, intensifica el debate sobre la regulación de la IA en previsión de la "superinteligencia".

En un nuevo artículo publicado en Blog de OpenAISam Altman, Consejero Delegado de la empresa, e Ilya Sutskever y Greg Brockman, compañeros suyos, hablan de la progresión de la IA hacia la "superinteligencia", también conocida como inteligencia general artificial (AGI)

Esto ocurre menos de una semana después de que Sam Altman testificó ante el CongresoLa IA requiere una regulación "urgente" para proteger a la sociedad y preservar sus beneficios. 

La superinteligencia describe las IA que superan las capacidades cognitivas de los seres humanos, un hito que Altman, Sutskever y Brockman afirman que puede alcanzarse en los próximos diez años. 

Dichas IA serían capaces de alcanzar una productividad equivalente a la de algunas de las mayores empresas del mundo, remodelando la sociedad con fines tanto positivos como negativos. 

El artículo sugiere tres posibles vías para mitigar los riesgos de la superinteligencia: 

1: Coordinación

Altman, Sutskever y Brockman piden una estrecha colaboración entre los líderes de la IA para mantener la seguridad y facilitar la integración de la superinteligencia en la sociedad. 

Esto podría llevarse a cabo mediante proyectos gubernamentales o acuerdos mutuos entre empresas, en los que los líderes de la IA acordasen limitar el ritmo de crecimiento de la inteligencia de sus modelos. 

2: Control internacional 

En segundo lugar, sugieren crear una agencia internacional de superinteligencia, como el Organismo Internacional de la Energía Atómica (OIEA), fundado en 1957, para mitigar los riesgos de la tecnología nuclear emergente. 

Los marcos reguladores creados por la agencia se aplicarían voluntariamente y a través de los gobiernos nacionales. 

3: Control público

En tercer lugar, OpenAI reclama la participación pública en las normas que rodean a las reglas de la superinteligencia, sugiriendo que el público debería supervisar los "límites y defectos" de la IA a través de un sistema democrático. 

Altman, Sutskever y Brockman afirman: "Aún no sabemos cómo diseñar un mecanismo de este tipo, pero tenemos previsto experimentar con su desarrollo." OpenAI había descrito anteriormente los valores por defecto como el comportamiento "listo para usar" de una IA y los límites como los límites impuestos a sus capacidades. 

OpenAI también defiende que se fomenten los proyectos de código abierto desarrollados por debajo de un "umbral" de capacidad establecido.

Afirman: "Creemos que sería arriesgado y difícil detener la creación de superinteligencia". 

Dado el crecimiento exponencial de la IA en la última década, la visión de OpenAI de un panorama regulado de la IA podría resultar clarividente.

Sin embargo, la industria de la IA se verá puesta a prueba por el llamamiento de la empresa a la colaboración y su voluntad de ser regulada. Por el momento, hay pocos indicios de colaboración cruzada entre los líderes de la IA.

Fomentar los objetivos competitivos al tiempo que se protege al público será todo un reto y, si damos crédito a OpenAI, el momento de actuar sobre la superinteligencia de la IA es ahora.

Únete al futuro


SUSCRÍBETE HOY

Claro, conciso y completo. Conozca los avances de la IA con DailyAI

Sam Jeans

Sam es un escritor de ciencia y tecnología que ha trabajado en varias startups de IA. Cuando no está escribiendo, se le puede encontrar leyendo revistas médicas o rebuscando en cajas de discos de vinilo.

×

PDF GRATUITO EXCLUSIVO
Adelántese con DailyAI

Suscríbase a nuestro boletín semanal y reciba acceso exclusivo al último eBook de DailyAI: 'Mastering AI Tools: Su guía 2024 para mejorar la productividad'.

*Al suscribirse a nuestro boletín de noticias, acepta nuestra política de privacidad. Política de privacidad y nuestro Condiciones generales