Microsoft har annonceret den forestående udgivelse af sin ChatGPT-integrerede AI-assistent, "Microsoft 365 Copilot", der skal integreres i sin kontorsoftware.
Fra 1. november vil AI-værktøjet blive rullet ud til brugere over hele verden. Som en del af de mange funktioner kan AI'en generere resuméer af Microsoft Teams-møder for personer, der ikke kan eller ikke vil deltage.
Med andre ord kan Copilot deltage i møder for dig - måske vinder den et par kunder bare for det.
Derudover er AI'en i stand til at skrive e-mails, oprette Word-dokumenter, tegne grafer i regneark og endda designe PowerPoint-præsentationer via instruktioner.
Microsofts vision for Copilot er klar. De tror på, at den vil "eliminere besværligheder" - i bund og grund udjævne de ting, som folk ikke har lyst til at gøre. Som Microsoft siger: "Teams-brugere på verdensplan deltager i tre gange så mange møder hver uge, som de gjorde i 2020."
Et potentielt problem er, at Microsofts Copilot kan skabe situationer, hvor folk utilsigtet interagerer med AI. Du deltager måske i et møde, og nogens AI-assistent lytter med. Hvor ender de data, og er de sikre?
Microsoft slår fast, at alle data, der behandles af Copilot, er sikre og ikke genbruges til yderligere AI-træning.
Mange værktøjer leverer allerede automatisk genererede tekstnoter fra møder, men AI's direkte involvering rejser nye spørgsmål.
Derudover kræver nogle regler, som Europas AI Act og Kinas AI-regler, at folk skal have besked, hvis de interagerer med AI i stedet for mennesker.
Collette Stallbaumer, chef for Microsoft 365, sagde i den forbindelse: "Det er et værktøj, og folk har et ansvar for at bruge det ansvarligt." Stallbaumer fortsatte: "Du har kun adgang til data, som du ellers ville have lov til at se. Det respekterer datapolitikker."
Hun uddybede: "Det er ikke sikkert, at jeg fortæller dig, når jeg sender dig det svar, at jeg brugte en AI-assistent til at hjælpe mig med at generere det. Men mennesket er altid med i blandingen og har altid kontrollen."
Der er dog stadig spørgsmål, især fordi EU's AI Act lægger ansvaret for sikker brug over på udvikleren.
"Folk har ansvar for at bruge det ansvarligt" er måske ikke et fair forsvar.
Microsofts tilgang til AI-misbrug har været slingrende. For eksempel lovede virksomheden til at betale advokatsalæret af alle, der bliver sagsøgt ved hjælp af Copilot.
Det fungerede lidt som en indrømmelse af, at Copilot faktisk er i stand til at producere ophavsretligt beskyttet information, som virksomheder ikke kan bruge.
Efterhånden som værktøjer som Copilot bliver en fast del af folks liv og arbejdsgange, er det svært at forudsige, hvilke funktioner der vil blive omfattet af kommende regler, og hvilke der vil glide ukontrolleret gennem nettet.