Microsoft har kunngjort den nært forestående lanseringen av sin ChatGPT-integrerte AI-assistent, "Microsoft 365 Copilot", som skal integreres i kontorprogramvaren.
Fra og med 1. november vil AI-verktøyet rulles ut til brukere over hele verden. Som en del av de mange funksjonene kan AI generere sammendrag av Microsoft Teams-møter for personer som ikke kan eller ikke vil delta.
Copilot kan med andre ord delta på møter for deg - og kanskje vinne noen kunder bare for det.
I tillegg kan den kunstige intelligensen skrive e-poster, opprette Word-dokumenter, tegne grafer i regneark og til og med utforme PowerPoint-presentasjoner ved hjelp av ledetekster.
Microsofts visjon for Copilot er klar. De mener at den vil "eliminere slitet" - i hovedsak ved å glatte ut de tingene folk ikke ønsker å gjøre. Som Microsoft sier: "Teams-brukere globalt er i tre ganger flere møter hver uke enn de var i 2020."
Et potensielt problem er at Microsofts Copilot kan skape situasjoner der folk utilsiktet interagerer med AI. Du deltar kanskje i et møte, og noens AI-assistent lytter med. Hvor havner disse dataene, og er de trygge?
Microsoft slår fast at alle data som behandles av Copilot, er sikret og ikke brukes til videre AI-trening.
Mange verktøy tilbyr allerede automatisk genererte tekstnotater fra møter, men AIs direkte involvering reiser nye spørsmål.
I tillegg krever enkelte regelverk, som Europas AI-lov og Kinas AI-regler, at folk må få vite om de samhandler med kunstig intelligens i stedet for mennesker.
Collette Stallbaumer, leder for Microsoft 365, sa: "Det er et verktøy, og folk har ansvar for å bruke det på en ansvarlig måte." Stallbaumer fortsatte: "Du har bare tilgang til data som du ellers ville fått lov til å se. Den respekterer datapolicyer."
Hun utdypet videre: "Det er ikke sikkert at jeg forteller deg, når jeg sender deg det svaret, at jeg brukte en AI-assistent til å hjelpe meg med å generere det. Men mennesket er alltid med i miksen og har alltid kontroll."
Det gjenstår imidlertid fortsatt en del spørsmål, særlig fordi EUs AI Act legger ansvaret for sikker bruk på utviklerens bord.
"Folk har ansvar for å bruke det på en ansvarlig måte" er kanskje ikke et rettferdig forsvar.
Microsofts tilnærming til misbruk av kunstig intelligens har vært slingrende. For eksempel lovet selskapet til å betale advokatutgiftene av alle som blir saksøkt ved hjelp av Copilot.
Dette fungerte på sett og vis som en innrømmelse av at Copilot faktisk er i stand til å produsere opphavsrettsbeskyttet informasjon som bedrifter ikke kan bruke.
Etter hvert som verktøy som Copilot integreres i folks liv og arbeidsflyt, er det utfordrende å forutsi hvilke funksjoner som vil bli omfattet av kommende reguleringer, og hvilke som vil slippe gjennom nettet uten å bli kontrollert.