Microsofts KI-Assistent Copilot kann an Teams-Meetings teilnehmen

Oktober 18, 2023

Kopilot

Microsoft hat die bevorstehende Veröffentlichung seines ChatGPT-integrierten KI-Assistenten "Microsoft 365 Copilot" angekündigt, der in seine Bürosoftware integriert werden soll

Ab dem 1. November wird das KI-Tool für Nutzer weltweit verfügbar sein. Als Teil seiner vielen Funktionen kann die KI Zusammenfassungen von Microsoft Teams-Meetings für Personen erstellen, die nicht teilnehmen können oder wollen. 

Mit anderen Worten: Copilot kann für Sie an Besprechungen teilnehmen - vielleicht gewinnt es allein dadurch ein paar Kunden. 

Darüber hinaus ist die KI in der Lage, E-Mails zu verfassen, Word-Dokumente zu erstellen, Diagramme in Tabellenkalkulationen zu zeichnen und sogar PowerPoint-Präsentationen über Eingabeaufforderungen zu gestalten. 

Die Vision von Microsoft für Copilot ist klar. Sie glauben, dass es "die 'Plackerei' beseitigen" wird - im Wesentlichen die Dinge glätten wird, die die Leute nicht tun wollen. Wie Microsoft feststellt, "nehmen Teams-Nutzer weltweit jede Woche an dreimal mehr Meetings teil als noch im Jahr 2020".

Ein potenzielles Problem ist, dass Microsofts Copilot Situationen schaffen kann, in denen Menschen unbeabsichtigt mit der KI interagieren. Sie könnten an einer Besprechung teilnehmen und der KI-Assistent von jemandem hört mit. Wo gehen diese Daten hin, und sind sie sicher? 

Microsoft versichert nachdrücklich, dass alle von Copilot verarbeiteten Daten sicher sind und nicht für weitere KI-Trainingszwecke weiterverwendet werden. 

Während viele Tools bereits automatisch generierte Textnotizen von Besprechungen bereitstellen, wirft die direkte Beteiligung von KI neue Fragen auf.

Darüber hinaus schreiben einige Vorschriften wie das europäische KI-Gesetz und die chinesischen KI-Vorschriften vor, dass Menschen darüber informiert werden müssen, wenn sie mit KI anstelle von Menschen interagieren.

Collette Stallbaumer, Leiterin von Microsoft 365, sagte dazu: "Es ist ein Werkzeug, und die Menschen haben die Verantwortung, es verantwortungsvoll zu nutzen." Stallbaumer weiter: "Man hat nur Zugriff auf Daten, die man sonst auch sehen darf. Es respektiert die Datenrichtlinien."

Sie führte weiter aus: "Wenn ich Ihnen diese Antwort sende, sage ich Ihnen vielleicht nicht, dass ich einen KI-Assistenten benutzt habe, um sie zu erstellen. Aber der Mensch ist immer mit von der Partie und hat immer die Kontrolle.

Es bleiben jedoch Fragen offen, zumal das KI-Gesetz der EU die Verantwortung für die sichere Nutzung fest in den Schoß des Entwicklers legt.

"Die Menschen haben die Verantwortung, sie verantwortungsvoll zu nutzen" ist vielleicht keine gute Verteidigung. 

Microsofts Herangehensweise an den KI-Missbrauch war mäandernd. Zum Beispiel versprach das Unternehmen die Gerichtskosten zu bezahlen von jedem, der mit Copilot verklagt wird. 

Dies war gewissermaßen ein Eingeständnis, dass Copilot tatsächlich in der Lage ist, urheberrechtlich geschützte Informationen zu produzieren, die von Unternehmen nicht genutzt werden können.

Da Tools wie Copilot fest in das Leben und die Arbeitsabläufe der Menschen integriert sind, ist es schwierig vorherzusagen, welche Funktionen von den kommenden Vorschriften betroffen sein werden und welche unkontrolliert durch das Netz schlüpfen werden.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen