Microsoft har meddelat den nära förestående lanseringen av sin ChatGPT-integrerade AI-assistent, "Microsoft 365 Copilot", som ska integreras i kontorsprogramvaran.
Med start den 1 november kommer AI-verktyget att rullas ut till användare över hela världen. Bland de många funktionerna kan AI generera sammanfattningar av Microsoft Teams-möten för personer som inte kan eller inte vill delta.
Med andra ord kan Copilot delta i möten åt dig - och kanske vinna några kunder bara för det.
Utöver det kan AI:n skriva e-postmeddelanden, skapa Word-dokument, rita grafer i kalkylblad och till och med utforma PowerPoint-presentationer via instruktioner.
Microsofts vision för Copilot är tydlig. De tror att det kommer att "eliminera 'drudgery'" - i huvudsak utjämna de saker som människor inte vill göra. Som Microsoft säger: "Teams-användare globalt sitter i tre gånger fler möten varje vecka än de gjorde 2020."
Ett potentiellt problem är att Microsofts Copilot kan skapa situationer där människor oavsiktligt interagerar med AI. Du kanske deltar i ett möte och någons AI-assistent lyssnar. Vart tar dessa data vägen och är de säkra?
Microsoft hävdar bestämt att alla uppgifter som behandlas av Copilot är säkra och inte återanvänds för ytterligare AI-träning.
Många verktyg tillhandahåller redan automatiskt genererade textanteckningar från möten, men AI:s direkta medverkan väcker nya frågor.
Dessutom kräver vissa regelverk, som Europas AI Act och Kinas AI-regler, att människor måste informeras om de interagerar med AI istället för människor.
Collette Stallbaumer, chef för Microsoft 365, sade: "Det är ett verktyg och människor har ansvar för att använda det på ett ansvarsfullt sätt." Stallbaumer fortsatte: "Du har bara tillgång till data som du annars skulle ha rätt att se. Det respekterar datapolicyer."
Hon fortsatte: "Jag kanske inte berättar för dig, när jag skickar svaret, att jag använde en AI-assistent för att hjälpa mig att generera det. Men människan är alltid med i mixen och har alltid kontrollen."
Frågor kvarstår dock, i synnerhet som EU:s AI Act lägger ansvaret för säker användning på utvecklarens bord.
"Människor har ansvar för att använda det på ett ansvarsfullt sätt" är kanske inte ett rimligt försvar.
Microsofts inställning till AI-missbruk har varit slingrande. Till exempel lovade företaget för att betala advokatkostnaderna av någon som blir stämd med hjälp av Copilot.
Detta fungerade på sätt och vis som ett erkännande av att Copilot faktiskt kan producera upphovsrättsskyddad information som företag inte kan använda.
I takt med att verktyg som Copilot integreras i människors liv och arbetsflöden är det svårt att förutse vilka funktioner som kommer att omfattas av kommande regleringar och vilka som kommer att passera okontrollerat genom nätet.