Microsoft ha anunciado el lanzamiento inminente de su asistente de IA integrado en ChatGPT, "Microsoft 365 Copilot", que se integrará en su software ofimático.
A partir del 1 de noviembre, la herramienta de IA se pondrá a disposición de los usuarios de todo el mundo. Como parte de sus muchas funciones, la IA puede generar resúmenes de las reuniones de Microsoft Teams para las personas que no pueden o no participan.
En otras palabras, Copilot puede asistir a las reuniones por usted, y puede que consiga algunos clientes sólo por eso.
Además, la IA es capaz de redactar correos electrónicos, crear documentos de Word, dibujar gráficos en hojas de cálculo e incluso diseñar presentaciones de PowerPoint mediante instrucciones.
La visión de Microsoft sobre Copilot es clara. Creen que "eliminará la "monotonía", es decir, las cosas que la gente no quiere hacer". Como afirma Microsoft, "los usuarios de Teams de todo el mundo asisten a tres veces más reuniones a la semana que en 2020."
Un problema potencial es que Copilot de Microsoft puede crear situaciones en las que las personas interactúen inadvertidamente con la IA. Puede que asistas a una reunión y el asistente de inteligencia artificial de alguien esté escuchando. A dónde van a parar esos datos y si son seguros?
Microsoft afirma firmemente que todos los datos procesados por Copilot están protegidos y no se reutilizan para nuevos entrenamientos de IA.
Aunque muchas herramientas ya proporcionan notas de texto autogeneradas de las reuniones, la participación directa de la IA plantea nuevas cuestiones.
Además, algunas normativas, como la Ley de Inteligencia Artificial europea y las normas chinas sobre IA, obligan a informar a las personas si están interactuando con IA en lugar de con humanos.
Al respecto, Collette Stallbaumer, responsable de Microsoft 365, dijo: "Es una herramienta, y la gente tiene la responsabilidad de usarla responsablemente." Stallbaumer continuó: "Sólo tienes acceso a los datos que de otro modo estarías autorizado a ver. Respeta las políticas de datos".
Y añade: "Puede que no te diga, cuando te envíe esa respuesta, que he utilizado un asistente de inteligencia artificial para ayudarme a generarla. Pero el ser humano siempre está en la mezcla y siempre tiene el control".
Sin embargo, sigue habiendo dudas, sobre todo porque la Ley de Inteligencia Artificial de la UE hace recaer firmemente la responsabilidad de un uso seguro en el desarrollador.
"La gente tiene la responsabilidad de usarla de forma responsable" quizá no sea una defensa justa.
El enfoque de Microsoft sobre el uso indebido de la IA ha sido serpenteante. Por ejemplo, la empresa prometió para pagar las costas judiciales de cualquiera que sea demandado usando Copilot.
En cierto modo, esto sirvió para admitir que Copilot es capaz de producir información protegida por derechos de autor que las empresas no pueden utilizar.
A medida que herramientas como Copilot se integran firmemente en la vida y los flujos de trabajo de las personas, resulta difícil predecir qué funciones se verán afectadas por las próximas normativas y cuáles pasarán desapercibidas.