El Departamento de Comercio de EE.UU. publicó una política que respalda los modelos abiertos, en una señal de la opinión de la administración Biden-Harris sobre este polémico asunto.
Los partidarios de modelos cerrados como OpenAI y Google hablan de los riesgos de los modelos abiertos, mientras que otros como Meta apuestan por variantes de IA de código abierto.
El informe del DOC redactado por su división de Administración Nacional de Telecomunicaciones e Información (NTIA) abraza "la apertura en la inteligencia artificial (IA) al tiempo que pide una supervisión activa de los riesgos en los modelos de IA potentes".
Los argumentos en contra de la divulgación abierta de los modelos se basan generalmente en el riesgo de doble uso, ya que los agentes malintencionados podrían adaptar los modelos a su nefasta voluntad. La política reconoce el riesgo de doble uso, pero afirma que los beneficios superan a los riesgos.
"La Administración Biden-Harris está haciendo todo lo posible para maximizar la promesa de la inteligencia artificial y minimizar sus riesgos", declaró la Secretaria de Comercio de EE.UU., Gina Raimondo.
"El informe de hoy proporciona una hoja de ruta para la innovación responsable de la IA y el liderazgo estadounidense al abrazar la apertura y recomendar cómo el gobierno de Estados Unidos puede prepararse y adaptarse a los posibles desafíos futuros."
Según el informe, el gobierno estadounidense debe vigilar activamente los posibles riesgos emergentes, pero debe abstenerse de restringir la disponibilidad de modelos de peso abierto.
Los pesos abiertos abren puertas
Cualquiera puede descargar la última versión de Meta Llama 3.1 modelo 405B y sus ponderaciones. Aunque no se han facilitado los datos de entrenamiento, disponer de las ponderaciones ofrece a los usuarios muchas más opciones de las que tendrían con GPT-4o o Claude 3.5 Soneto por ejemplo.
El acceso a las ponderaciones permite a los investigadores y desarrolladores tener una mejor visión de lo que ocurre bajo el capó e identificar y rectificar sesgos, errores o comportamientos inesperados dentro del modelo.
También facilita mucho a los usuarios el ajuste de los modelos para casos de uso específicos, ya sean buenos o malos.
El informe señala que "la accesibilidad que ofrecen las ponderaciones abiertas reduce significativamente la barrera de entrada para ajustar los modelos con fines tanto beneficiosos como perjudiciales. Los actores adversarios pueden eliminar las salvaguardas de los modelos abiertos mediante el ajuste fino, y luego distribuir libremente el modelo, limitando en última instancia el valor de las técnicas de mitigación."
Entre los riesgos y beneficios de los modelos abiertos de IA que destaca el informe figuran los siguientes:
- Seguridad pública
- Consideraciones geopolíticas
- Cuestiones sociales
- Competencia, innovación e investigación
El informe es sincero al reconocer los riesgos en cada uno de estos ámbitos, pero afirma que los beneficios los compensan si se gestionan los riesgos.
Con un modelo cerrado como el GPT-4o, todos tenemos que confiar en que OpenAI está haciendo un buen trabajo con sus esfuerzos de alineación y no está ocultando riesgos potenciales. Con un modelo de peso abierto, cualquier investigador puede identificar vulnerabilidades de seguridad y protección en un modelo o realizar una auditoría de terceros para garantizar que el modelo cumple la normativa.
Según el informe, "la disponibilidad de pesos modelo podría permitir a los países en cuestión desarrollar ecosistemas de IA avanzada más sólidos... y socavar los objetivos de la Controles de chips en EE.UU.."
Sin embargo, en la columna de los puntos positivos, poner a disposición los pesos modelo "podría reforzar la cooperación con los aliados y profundizar las nuevas relaciones con los socios en desarrollo."
El Gobierno de EE.UU. está claramente convencido de la idea de los modelos abiertos de IA, incluso mientras establece normativas federales y estatales para reducir los riesgos de la tecnología. Si el Trump-Vance equipo gane las próximas elecciones, probablemente veremos un apoyo continuado a la IA abierta, pero con una regulación aún menor.
Los modelos de peso abierto pueden ser estupendos para la innovación, pero si los riesgos emergentes pillan desprevenidos a los reguladores, no habrá forma de devolver al genio de la IA a la botella.