Más de 100 destacados expertos en IA han publicado una carta abierta en la que exigen que las empresas que están detrás de las tecnologías de IA generativa, como OpenAI, Meta y otras, abran sus puertas a pruebas independientes.
Su mensaje es claro: las condiciones de los desarrolladores de IA están frenando los esfuerzos de investigación independiente sobre la seguridad de las herramientas de IA.
Entre los cofirmantes figuran destacados expertos como Percy Liang, de Stanford, Julia Angwin, ganadora del Premio Pulitzer, Renée DiResta, del Observatorio de Internet de Stanford, Deb Raji, miembro de Mozilla, Marietje Schaake, ex miembro del Parlamento Europeo, y Suresh Venkatasubramanian, de la Universidad de Brown.
Los investigadores sostienen que no deben repetirse las lecciones de la era de las redes sociales, en la que a menudo se marginaba la investigación independiente.
Para combatir este riesgo, piden que OpenAI, Meta, Anthropic, Google, Midjourney y otros creen un espacio legal y técnico seguro para que los investigadores evalúen los productos de IA sin temor a ser demandados o prohibidos.
La carta dice: "Aunque las condiciones de servicio de las empresas disuaden del uso malintencionado, tampoco ofrecen ninguna exención para la investigación independiente de buena fe, lo que deja a los investigadores expuestos a la suspensión de la cuenta o incluso a represalias legales."
Las herramientas de IA imponen estrictas políticas de uso para evitar que sean manipuladas y se salten sus barandillas. Por ejemplo, OpenAI marcó recientemente los esfuerzos de investigación de la New York Times como "hacking". y Meta amenazó con retirar licencias por disputas sobre propiedad intelectual.
Un estudio reciente sondeado MidJourney para revelar numerosos casos de violación de los derechos de autor, lo que habría ido en contra de los T&C de la empresa.
El problema es que, dado que las herramientas de IA son en gran medida impredecibles, dependen de que la gente las utilice de una manera específica para seguir siendo "seguras".
Sin embargo, esas mismas políticas dificultan a los investigadores el sondeo y la comprensión de los modelos.
La carta, publicado en el sitio web del MIT, hace dos súplicas:
1. "En primer lugar, un puerto seguro legal indemnizaría la investigación independiente de buena fe sobre seguridad, protección y fiabilidad de la IA, siempre que se lleve a cabo de acuerdo con normas bien establecidas de divulgación de vulnerabilidades."
2. "En segundo lugar, las empresas deberían comprometerse a un acceso más equitativo, recurriendo a revisores independientes para moderar las solicitudes de evaluación de los investigadores, lo que protegería a la investigación sobre seguridad respetuosa con las normas de las contraproducentes suspensiones de cuentas, y mitigaría la preocupación de que las empresas seleccionen a sus propios evaluadores."
La carta también presenta una propuesta política, redactada conjuntamente por algunos firmantes, que sugiere modificaciones en las condiciones de servicio de las empresas para dar cabida a la investigación académica y de seguridad.
Esto contribuye a ampliar el consenso sobre los riesgos asociados a la IA generativa, como la parcialidad, la infracción de los derechos de autor y la creación de imágenes íntimas no consentidas.
Al abogar por un "puerto seguro" para la evaluación independiente, estos expertos defienden la causa del interés público, con el objetivo de crear un ecosistema en el que las tecnologías de IA puedan desarrollarse y desplegarse de forma responsable, con el bienestar de la sociedad en primer plano.