HR-softwarevirksomheden Lattice, der blev grundlagt af Sam Altmans bror Jack Altman, blev den første til at give digitale medarbejdere officielle medarbejderjournaler, men aflyste flytningen blot 3 dage senere.
Lattice CEO Sarah Franklin annonceret på LinkedIn at Lattice "skrev historie ved at blive den første virksomhed, der førte an i den ansvarlige ansættelse af AI-'digitale medarbejdere' ved at oprette en digital medarbejderjournal for at styre dem med gennemsigtighed og ansvarlighed."
Franklin sagde, at "digitale medarbejdere" vil blive sikkert onboardet, uddannet og tildelt mål, præstationsmålinger, passende systemadgang og endda en ansvarlig leder."
Hvis du synes, at dette skridt til at antropomorfisere AI er et skridt for langt og tonedøvt i lyset af truende tab af arbejdspladser, så er du ikke alene.
Der kom hurtigt modreaktioner fra onlinesamfundet, også fra folk i AI-branchen.
Sawyer Middeleer, personalechef hos AI-salgsplatformen Aomni, kommenterede indlægget og sagde: "Denne strategi og besked rammer helt ved siden af, og det siger jeg som en, der er ved at opbygge en AI-virksomhed. At behandle AI-agenter som medarbejdere er en mangel på respekt for dine rigtige medarbejderes menneskelighed. Endnu værre er det, at det antyder, at du blot betragter mennesker som "ressourcer", der skal optimeres og måles i forhold til maskiner."
Ed Zitron, CEO for tech media relations-virksomheden EZPR, spurgte Franklin: "I tilfælde af en fagforeningsindsats hos Lattice, vil disse AI-medarbejdere så få lov til at stemme?"
Lattice indså hurtigt, at verden måske ikke er klar til "digitale medarbejdere" endnu. Kun tre dage efter annonceringen siger virksomheden nu, at den har aflyst projektet.
Er de arbejdere?
Det er blevet alt for nemt at menneskeliggøre AI-modeller og robotter. De lyder som os, udviser følelser og er ofte bedre til at være empatiske, end vi er.
Men er de bevidste eller følende i en sådan grad, at vi bør overveje at give dem "arbejdstagerrettigheder"? Lattice har måske bare forsøgt at komme dette uundgåelige spørgsmål i forkøbet, om end på en lidt klodset måde.
Claude 3 Opus overraskede ingeniører da den afslørede en vis grad af selvbevidsthed under testning. Google fyrede en af sine ingeniører helt tilbage i 2022, da han sagde, at dens AI-model udviste følsomhed, og forskere hævder, at GPT-4 har bestået Turing-testen.
Om AI-modeller faktisk har en vis grad af bevidsthed eller ej, er måske ikke engang det, der afgør, om digitale medarbejdere får rettigheder i fremtiden.
I april blev forskere offentliggjorde en interessant undersøgelse i tidsskriftet Neuroscience of Consciousness. De spurgte 300 amerikanske borgere, om de troede, at ChatGPT var bevidst og havde subjektive oplevelser som følelser og fornemmelser. Mere end to tredjedele af de adspurgte sagde, at det gjorde de, selv om de fleste eksperter er uenige.
Forskerne fandt ud af, at jo oftere folk brugte værktøjer som ChatGPT, jo mere tilbøjelige var de til at tillægge det et vist niveau af bevidsthed.
Vores første automatiske reaktion kan være, at vi vægrer os ved tanken om, at en AI-"kollega" skal have arbejdstagerrettigheder. Denne forskning tyder på, at jo mere vi interagerer med AI, jo mere sandsynligt er det, at vi sympatiserer med den og overvejer at byde den velkommen i teamet.