HR-softwarebedrijf Lattice, opgericht door Sam Altman's broer Jack Altman, was de eerste die digitale werknemers officiële personeelsdossiers gaf, maar annuleerde de stap slechts 3 dagen later.
Sarah Franklin, CEO van Lattice aangekondigd op LinkedIn dat Lattice "geschiedenis heeft geschreven door het eerste bedrijf te worden dat het voortouw neemt in het verantwoord inzetten van AI 'digitale werknemers' door een digitaal werknemersdossier te creëren om hen te besturen met transparantie en verantwoording."
Franklin zei dat "digitale werknemers" veilig zullen worden ingewerkt, opgeleid en doelen, prestatiecijfers, de juiste systeemtoegang en zelfs een verantwoordelijke manager toegewezen zullen krijgen.
Als je denkt dat deze stap om AI te antropomorfiseren een stap te ver is en te laf in het licht van het dreigende banenverlies, dan ben je niet de enige.
De online gemeenschap reageerde snel, ook door mensen uit de AI-industrie.
Sawyer Middeleer, chief of staff bij AI-verkoopplatform Aomni, gaf als commentaar op het bericht: "Deze strategie en berichtgeving slaat de plank volledig mis, en dat zeg ik als iemand die een AI-bedrijf opbouwt. AI-agenten behandelen als werknemers respecteert de menselijkheid van je echte werknemers niet. Erger nog, het impliceert dat je mensen gewoon ziet als "middelen" die moeten worden geoptimaliseerd en gemeten ten opzichte van machines."
Ed Zitron, CEO van technologisch mediabedrijf EZPR, vroeg Franklin: "In het geval van een vakbondsactie bij Lattice, mogen deze AI-werknemers dan stemmen?"
Lattice realiseerde zich al snel dat de wereld misschien nog niet klaar is voor "digitale werknemers". Slechts drie dagen na de aankondiging zegt het bedrijf nu dat het het project heeft geannuleerd.
Zijn het werknemers?
Het wordt maar al te gemakkelijk om AI-modellen en robots te vermenselijken. Ze klinken net als wij, hebben emoties en kunnen zich vaak beter inleven dan wij.
Maar zijn ze zo bewust of gevoelig dat we moeten overwegen om ze "werknemersrechten" te geven? Misschien probeerde Lattice deze onvermijdelijke vraag gewoon voor te zijn, zij het een beetje onhandig.
Claude 3 Opus verraste ingenieurs toen het tijdens het testen een zekere mate van zelfbewustzijn liet zien. Google ontsloeg een van zijn ingenieurs in 2022 toen hij zei dat zijn AI-model bewustzijn vertoonde, en onderzoekers beweren dat GPT-4 de Turingtest heeft doorstaan.
Of AI-modellen daadwerkelijk een zekere mate van bewustzijn hebben of niet, is misschien niet eens wat bepaalt of digitale werknemers in de toekomst rechten krijgen.
In april hebben onderzoekers een interessante studie gepubliceerd in het tijdschrift Neuroscience of Consciousness. Ze vroegen 300 Amerikaanse burgers of ze geloofden dat ChatGPT bewust was en subjectieve ervaringen had zoals gevoelens en gewaarwordingen. Meer dan tweederde van de respondenten zei van wel, ook al zijn de meeste experts het daar niet mee eens.
De onderzoekers ontdekten dat hoe vaker mensen tools zoals ChatGPT gebruikten, hoe groter de kans was dat ze er een bepaald niveau van bewustzijn aan toeschreven.
Onze eerste automatische reactie kan zijn dat we ons verzetten tegen het idee dat een AI 'collega' werknemersrechten heeft. Dit onderzoek suggereert dat hoe meer we met AI omgaan, hoe waarschijnlijker het is dat we sympathie voor de AI krijgen en overwegen om de AI in ons team op te nemen.