Microsoft heeft aangekondigd dat het binnenkort zijn in ChatGPT geïntegreerde AI-assistent, "Microsoft 365 Copilot", zal uitbrengen. Deze assistent zal worden geïntegreerd in zijn kantoorsoftware..
Vanaf 1 november wordt de AI-tool wereldwijd uitgerold naar gebruikers. Als onderdeel van de vele functies kan de AI samenvattingen van Microsoft Teams-vergaderingen genereren voor personen die niet kunnen of willen deelnemen.
Met andere woorden, Copilot kan vergaderingen voor je bijwonen - alleen daarom al zou het een paar klanten kunnen winnen.
Bovendien kan de AI e-mails opstellen, Word-documenten maken, grafieken tekenen in spreadsheets en zelfs PowerPoint-presentaties ontwerpen via aanwijzingen.
Microsofts visie voor Copilot is duidelijk. Ze geloven dat het "sleur zal elimineren" - in wezen het gladstrijken van de dingen die mensen niet willen doen. Zoals Microsoft stelt: "Teams-gebruikers wereldwijd zitten elke week drie keer meer in vergaderingen dan in 2020."
Een mogelijk probleem is dat Microsofts Copilot situaties kan creëren waarin mensen onbedoeld interactie hebben met AI. Je kunt een vergadering bijwonen en iemands AI-assistent luistert mee. Waar gaan die gegevens heen en zijn ze veilig?
Microsoft stelt nadrukkelijk dat alle gegevens die door Copilot worden verwerkt, beveiligd zijn en niet opnieuw worden gebruikt voor verdere AI-training.
Hoewel veel tools al automatisch gegenereerde tekstnotities van vergaderingen bieden, roept de directe betrokkenheid van AI nieuwe vragen op.
Bovendien schrijven sommige regels, zoals de Europese AI-wet en de Chinese AI-regels, voor dat mensen moeten weten of ze met AI in plaats van mensen werken.
Collette Stallbaumer, hoofd van Microsoft 365, zei hierover: "Het is een hulpmiddel en mensen hebben de verantwoordelijkheid om het verantwoord te gebruiken." Stallbaumer vervolgde: "Je hebt alleen toegang tot gegevens die je anders zou mogen zien. Het respecteert het gegevensbeleid."
Ze zei verder: "Als ik je dat antwoord stuur, vertel ik je misschien niet dat ik een AI-assistent heb gebruikt om me te helpen het antwoord te genereren. Maar de mens zit altijd in de mix en heeft altijd de controle."
Er blijven echter vragen bestaan, vooral omdat de AI-wet van de EU de verantwoordelijkheid voor veilig gebruik stevig bij de ontwikkelaar legt.
"Mensen hebben de verantwoordelijkheid om het op een verantwoorde manier te gebruiken" is misschien geen eerlijke verdediging.
Microsofts aanpak van AI-misbruik is meanderend geweest. Het bedrijf beloofde bijvoorbeeld om de juridische kosten te betalen van iedereen die aangeklaagd wordt met Copilot.
Dit fungeerde een beetje als een erkenning dat Copilot inderdaad in staat is auteursrechtelijk beschermde informatie te produceren die bedrijven niet mogen gebruiken.
Naarmate tools als Copilot steeds meer geïntegreerd raken in het leven en de workflows van mensen, is het een uitdaging om te voorspellen welke functies onder de aankomende regelgeving zullen vallen en welke functies ongecontroleerd door de mazen van het net glippen.