OpenAI anunció recientemente un nuevo enfoque de los datos y la IA, haciendo hincapié en la importancia del desarrollo responsable de la IA y las asociaciones con creadores y propietarios de contenidos.
La empresa ha declarado construir sistemas de IA que amplíen las oportunidades para todos, respetando al mismo tiempo las decisiones de creadores y editores.
"La IA debería ampliar las oportunidades para todos. Al transformar la información de nuevas formas, los sistemas de IA nos ayudan a resolver problemas y a expresarnos". OpenAI declaró en su entrada reciente en el blog.
Como parte de esta estrategia, la empresa está desarrollando una herramienta llamada Media Manager, preparada para permitir a los creadores y propietarios de contenidos especificar cómo quieren que sus obras se incluyan o excluyan de la investigación y formación de aprendizaje automático.
"Nuestro objetivo es disponer de la herramienta en 2025, y esperamos que establezca un estándar en toda la industria de la IA". OpenAI declarado.
Hay poca información disponible sobre Media Manager y su posible funcionamiento. Parece que adoptará la forma de una herramienta de autoservicio en la que los creadores podrán identificar y controlar sus datos.
Algunos especulan si OpenAI identificará activamente los datos de los creadores dentro de su conjunto de datos mediante aprendizaje automático, lo que podría ser enorme.
UEn definitiva, aún no sabemos cómo funcionará ni cuán eficaz será.
OpenAI anunció Media Manager, una plataforma prevista para permitir a los creadores optar por recibir o no formación generativa de IA.
Aspectos positivos:
- Me alegro de que se ocupen de este tema.
- Reconocen que las cláusulas de exclusión existentes no son suficientes
- Cuando te das de baja, parece que usarán ML para...- Ed Newton-Rex (@ednewtonrex) 7 de mayo de 2024
Un paso positivo de OpenAI? Posiblemente, pero si OpenAI cree sinceramente que entrenar modelos de IA con datos deSi los datos disponibles entran en el ámbito del uso legítimo, no sería necesaria una opción de exclusión voluntaria.
Además, si OpenAI puede desarrollar herramientas para identificar el material protegido por derechos de autor, probablemente podría utilizarlas para filtrar su raspado de datos desde el principio en lugar de exigir a los creadores de contenidos que opten por no participar.
Además, 2025 les da tiempo suficiente para construir una colosal base de datos de obras protegidas por derechos de autor sin su permiso.
A partir de ahí, se trata sobre todo de afinar. OpenAI seguirá comprando datos de fuentes como el Financial Times y Le Monde para mantener actualizados sus modelos.
Esto, al menos, sirve como prueba de que hay presión sobre OpenAI y otras empresas de IA a manejar los datos de forma más ética.
Contribuyendo a un escritorio lleno de demandas, el grupo europeo de defensa de la privacidad Noyb recientemente emprendió acciones legales en OpenAIalegando que ChatGPT genera repetidamente información inexacta sobre las personas y no la corrige.
OpenAILa respuesta de la Comisión fue característica: "Puede que tenga razón, pero no podemos, o no queremos, hacer nada al respecto".