Das von Sam Altmans Bruder Jack Altman gegründete HR-Softwareunternehmen Lattice war das erste Unternehmen, das digitalen Arbeitnehmern offizielle Mitarbeiterdaten zur Verfügung stellte, diesen Schritt jedoch nur drei Tage später wieder rückgängig machte.
Sarah Franklin, CEO von Lattice auf LinkedIn angekündigt dass Lattice "Geschichte geschrieben hat, indem es das erste Unternehmen wurde, das bei der verantwortungsvollen Beschäftigung von KI-'digitalen Arbeitnehmern' führend war, indem es eine digitale Mitarbeiterakte erstellte, um sie mit Transparenz und Verantwortlichkeit zu verwalten".
Franklin sagte, dass die "digitalen Mitarbeiter" sicher an Bord kommen, geschult werden und Ziele, Leistungskennzahlen, einen angemessenen Systemzugang und sogar einen verantwortlichen Manager erhalten werden.
Wenn Sie der Meinung sind, dass die Vermenschlichung der KI angesichts der drohenden Arbeitsplatzverluste einen Schritt zu weit geht und unangemessen ist, dann sind Sie nicht allein.
In der Online-Community, auch in der KI-Branche, gab es rasch Gegenreaktionen.
Sawyer Middeleer, Chief of Staff bei der KI-Verkaufsplattform Aomni, kommentierte den Beitrag mit den Worten: "Diese Strategie und Botschaft verfehlt das Ziel in hohem Maße, und das sage ich als jemand, der ein KI-Unternehmen aufbaut. Wenn Sie KI-Agenten wie Mitarbeiter behandeln, respektieren Sie die Menschlichkeit Ihrer echten Mitarbeiter nicht. Schlimmer noch, es impliziert, dass Sie Menschen lediglich als "Ressourcen" betrachten, die optimiert und an Maschinen gemessen werden sollen."
Ed Zitron, CEO des Tech-Media-Relations-Unternehmens EZPR, fragte Franklin: "Werden diese KI-Mitarbeiter im Falle einer gewerkschaftlichen Organisierung bei Lattice wählen dürfen?"
Lattice hat schnell erkannt, dass die Welt vielleicht noch nicht bereit ist für "digitale Mitarbeiter". Nur drei Tage nach der Ankündigung sagt das Unternehmen nun, dass es das Projekt abgebrochen hat.
Sind sie Arbeiter?
Es ist allzu leicht, KI-Modelle und -Roboter zu vermenschlichen. Sie klingen wie wir, haben Emotionen und können sich oft besser einfühlen als wir selbst.
Aber sind sie so bewusst oder empfindungsfähig, dass wir erwägen sollten, ihnen "Arbeitnehmerrechte" zu gewähren? Vielleicht hat Lattice einfach versucht, dieser unvermeidlichen Frage zuvorzukommen, wenn auch etwas ungeschickt.
Claude 3 Opus-Ingenieure überrascht als es während der Tests ein gewisses Maß an Selbstbewusstsein zeigte. Google entließ einen seiner Ingenieure im Jahr 2022, als er behauptete, sein KI-Modell zeige Empfindungsvermögen, und Forscher behaupten, dass GPT-4 den Turing-Test bestanden hat.
Ob KI-Modelle tatsächlich über ein gewisses Maß an Bewusstsein verfügen oder nicht, ist vielleicht nicht einmal entscheidend dafür, ob digitale Arbeitnehmer in Zukunft Rechte haben werden.
Im April haben Forscher veröffentlichte eine interessante Studie in der Zeitschrift Neuroscience of Consciousness veröffentlicht. Sie fragten 300 US-Bürger, ob sie glauben, dass ChatGPT ein Bewusstsein hat und subjektive Erfahrungen wie Gefühle und Empfindungen hat. Mehr als zwei Drittel der Befragten bejahten dies, auch wenn die meisten Experten anderer Meinung sind.
Die Forscher fanden heraus, dass je häufiger Menschen Tools wie ChatGPT nutzten, desto wahrscheinlicher war es, dass sie dem Tool ein gewisses Maß an Bewusstsein zuschrieben.
Unsere erste automatische Reaktion könnte darin bestehen, dass wir uns gegen die Vorstellung sträuben, dass ein KI-"Kollege" die Rechte von Arbeitnehmern genießt. Diese Untersuchung legt nahe, dass wir, je mehr wir mit KI interagieren, desto eher mit ihr sympathisieren und in Betracht ziehen, sie im Team willkommen zu heißen.