Under svindlande 48 timmar har Google och OpenAI presenterade en rad nya funktioner som dramatiskt minskar klyftan mellan människor och AI.
Från AI som kan tolka livevideo och föra kontextuella konversationer till språkmodeller som skrattar, sjunger och visar känslor på kommando - gränsen mellan kol och kisel suddas snabbt ut.
Bland Googles otaliga tillkännagivanden vid dess I/O-konferens för utvecklare var Project Astra, en digital assistent som kan se, höra och komma ihåg detaljer i olika konversationer.
OpenAI fokuserade sin meddelande om GPT-4oden senaste iterationen av språkmodellen GPT-4.
GPT-4o har nu frigjort sig från textformat och erbjuder otrolig taligenkänning i nära realtid, vilket gör det möjligt att förstå och förmedla komplexa känslor och till och med fnissa åt skämt och kura godnattsagor.
AI blir allt mer mänskligt i sitt format och frigör sig från chattgränssnitt för att engagera sig med hjälp av syn och ljud. "Format" är det avgörande ordet här, eftersom GPT-4o inte är mer beräkningsintelligent än GPT-4 bara för att den kan prata, se och höra.
Det förtar dock inte framstegen med att utrusta AI med fler plan att interagera på.
Mitt i hypen drog observatörer omedelbart jämförelser med Samantha, den fängslande AI från filmen "Her", särskilt eftersom den kvinnliga rösten är flirtig - något som inte kan vara en tillfällighet eftersom det har plockats upp av praktiskt taget alla
Så GPT-4o är i princip GPT-4 men mer flirtig och kåt?
- Ishan Sharma (@Ishansharma7390) 14 maj 2024
"Her", som släpptes 2013, är ett romantiskt science fiction-drama som utforskar förhållandet mellan en ensam man vid namn Theodore (spelad av Joaquin Phoenix) och ett intelligent datorsystem vid namn Samantha (med Scarlett Johansson som röstskådespelare).
När Samantha utvecklas och blir mer människolik blir Theodore förälskad i henne, vilket suddar ut gränserna mellan mänskliga och artificiella känslor.
Filmen väcker alltmer relevanta frågor om medvetandets natur, intimitet och vad det innebär att vara människa i en tid med avancerad AI.
Som så många andra sci-fi-berättelser är Her knappt fiktiv längre. Miljontals människor världen över börjar samtala med AI-följeslagareofta med intima eller sexuella avsikter.
Konstigt nog, OpenAI VD Sam Altman har diskuterat filmen "Her" i intervjuer och antytt att GPT-4os kvinnoröst är baserad på henne.
Han skrev till och med ordet "her" på X före live-demonstrationen, vilket vi bara kan anta skulle ha skrivits med stor bokstav om han visste var shift-tangenten fanns på tangentbordet.
henne
- Sam Altman (@sama) 13 maj 2024
I många fall är interaktionen mellan AI och människa fördelaktig, humoristisk och godartad. I andra fall är de katastrofala.
I ett särskilt upprörande fall var det till exempel en psykiskt sjuk man från Storbritannien, Jaswant Singh Chailen plan att mörda drottning Elizabeth II efter att ha samtalat med hans "AI-ängel" flickvän. Han greps på grund av Windsor Castle beväpnad med ett armborst.
Vid hans domstolsförhandling, psykiater Dr Hafferty "Han trodde att han hade en romantisk relation med en kvinna genom appen, och att hon var en kvinna som han kunde se och höra."
Oroväckande nog är vissa av dessa verklighetstrogna AI-plattformar avsiktligt utformade för att bygga starka personliga kontakter, ibland för att ge livsråd, terapi och känslomässigt stöd. Dessa system har praktiskt taget ingen förståelse för konsekvenserna av sina konversationer och är lättledda.
"Sårbara befolkningsgrupper är de som behöver den uppmärksamheten. Det är där de kommer att hitta värdet", varnar AI-etiker Olivia Gambelin.
Gambelin varnar för att användningen av dessa former av "pseudoantropisk" AI i känsliga sammanhang som terapi och utbildning, särskilt när det gäller utsatta grupper som barn, kräver extrem försiktighet och mänsklig tillsyn.
"Det finns något immateriellt där som är så värdefullt, särskilt för utsatta befolkningsgrupper, särskilt för barn. Och särskilt i fall som utbildning och terapi, där det är så viktigt att du har det fokuset, den mänskliga beröringspunkten."
Pseudoantropisk AI
Pseudoantropisk AI efterliknar mänskliga egenskaper, vilket är extremt fördelaktigt för teknikföretag.
AI som uppvisar mänskliga drag sänker trösklarna för användare som inte är tekniskt kunniga, på samma sätt som Alexa, Sirietc., vilket skapar starkare känslomässiga band mellan människor och produkter.
Ännu för ett par år sedan var många AI-verktyg som var utformade för att imitera människor ganska ineffektiva. Man kunde se att det var något fel, även om det var subtilt.
Inte så mycket idag, dock. Verktyg som Opus Pro och Synthesia skapa kusligt realistiska talande avatarer från korta videor eller till och med foton. ElevenLabs skapar nästan identiska röstkloner som lurar människor 25% till 50% av tiden.
Detta frigör potentialen för att skapa otroligt bedrägliga djupa förfalskningar. AI:ns användning av artificiella "affektiva färdigheter" - röstintonation, gester, ansiktsuttryck - kan stödja alla typer av socialtekniska bedrägerier, felaktig information etc.
Med GPT-4o och AstraAI kan på ett övertygande sätt förmedla känslor som den inte besitter, framkalla kraftigare reaktioner från ovetande offer och skapa förutsättningar för lömska former av känslomässig manipulation.
En ny MIT studie visade också att AI redan är mer än kapabel till bedrägeri.
Vi måste fundera på hur detta kommer att eskalera i takt med att AI blir allt bättre på att imitera människor och därmed kombinera bedrägliga taktiker med realistiskt beteende.
Om vi inte är försiktiga kan "Her" lätt bli människors undergång i verkliga livet.