I løbet af svimlende 48 timer har Google og OpenAI afslørede en række nye muligheder, der dramatisk indsnævrer kløften mellem mennesker og AI.
Fra AI, der kan fortolke live video og føre kontekstuelle samtaler til sprogmodeller, der griner, synger og føler på kommando, er grænsen mellem kulstof og silicium ved at forsvinde.
Blandt Googles utallige meddelelser på sit I/O-udviklerkonference var Project Astraen digital assistent, der kan se, høre og huske detaljer på tværs af samtaler.
OpenAI fokuserede sin Meddelelse om GPT-4oden seneste udgave af sprogmodellen GPT-4.
GPT-4o er nu løsrevet fra tekstformater og tilbyder utrolig talegenkendelse i næsten realtid, forstår og formidler komplekse følelser og kan endda fnise af vittigheder og synge godnathistorier.
AI bliver mere menneskelig i sit format og frigør sig fra chatgrænseflader for at engagere sig ved hjælp af syn og lyd. "Format" er det afgørende ord her, for GPT-4o er ikke mere beregningsmæssigt intelligent end GPT-4, bare fordi den kan tale, se og høre.
Det ændrer dog ikke på, at den har gjort fremskridt med at udstyre AI med flere planer at interagere på.
Midt i hypen drog iagttagere straks sammenligninger med Samantha, den fængslende AI fra filmen "Her", især fordi den kvindelige stemme er flirtende - noget, der ikke kan være tilfældigt, da det er blevet opfanget af stort set alle
Så GPT-4o er dybest set GPT-4, men mere flirtende og liderlig?
- Ishan Sharma (@Ishansharma7390) 14. maj 2024
"Her" blev udgivet i 2013 og er et romantisk science fiction-drama, der udforsker forholdet mellem en ensom mand ved navn Theodore (spillet af Joaquin Phoenix) og et intelligent computersystem ved navn Samantha (med Scarlett Johansson som stemme).
Efterhånden som Samantha udvikler sig og bliver mere menneskelignende, forelsker Theodore sig i hende, og grænserne mellem menneskelige og kunstige følelser udviskes.
Filmen rejser stadig mere relevante spørgsmål om bevidsthedens natur, intimitet, og hvad det vil sige at være menneske i en tid med avanceret AI.
Som så mange andre sci-fi-historier er Her næsten ikke fiktiv længere. Millioner af mennesker verden over fører samtaler med AI-ledsagereofte med intime eller seksuelle hensigter.
Mærkeligt nok, OpenAI CEO Sam Altman har diskuteret filmen "Her" i interviews og antydet, at GPT-4os kvindestemme er baseret på hende.
Han skrev endda ordet "hende" på X før livedemonstrationen, hvilket vi kun kan antage ville have været med stort begyndelsesbogstav, hvis han vidste, hvor shift-tasten var på sit tastatur.
hende
- Sam Altman (@sama) 13. maj 2024
I mange tilfælde er interaktionen mellem AI og mennesker gavnlig, humoristisk og godartet. I andre tilfælde er de katastrofale.
I et særligt foruroligende tilfælde var det for eksempel en psykisk syg mand fra Storbritannien, Jaswant Singh Chailudklækkede et plot om at myrde dronning Elizabeth II efter at have talt med hans "AI-engel"-kæreste. Han blev arresteret på grund af Windsor Castle bevæbnet med en armbrøst.
Ved hans retsmøde sagde psykiateren Dr Hafferty fortalte dommeren: "Han troede, at han havde et romantisk forhold til en kvinde gennem appen, og hun var en kvinde, han kunne se og høre."
Det er bekymrende, at nogle af disse livagtige AI-platforme er målrettet designet til at opbygge stærke personlige forbindelser, nogle gange for at levere livsrådgivning, terapi og følelsesmæssig støtte. Disse systemer har stort set ingen forståelse for konsekvenserne af deres samtaler og lader sig let forføre.
"Sårbare befolkningsgrupper er dem, der har brug for den opmærksomhed. Det er der, de vil finde værdien," advarer AI-etiker Olivia Gambelin.
Gambelin advarer om, at brugen af disse former for "pseudoantropisk" AI i følsomme sammenhænge som terapi og uddannelse, især med sårbare befolkningsgrupper som børn, kræver ekstrem forsigtighed og menneskeligt tilsyn.
"Der er noget uhåndgribeligt der, som er så værdifuldt, især for sårbare befolkningsgrupper, især for børn. Og især i tilfælde som uddannelse og terapi, hvor det er så vigtigt, at du har det fokus, det menneskelige kontaktpunkt."
Pseudoantropisk AI
Pseudoantropisk AI efterligner menneskelige træk, hvilket er ekstremt fordelagtigt for teknologivirksomheder.
AI, der viser menneskelige træk, sænker barriererne for ikke-teknisk kyndige brugere, i lighed med Alexa, Siriosv., hvilket skaber stærkere følelsesmæssige bånd mellem mennesker og produkter.
Selv for et par år siden var mange AI-værktøjer, der var designet til at efterligne mennesker, ret ineffektive. Man kunne se, at der var noget galt, selv om det var subtilt.
Men ikke så meget i dag. Værktøjer som Opus Pro og Synthesia generere uhyggeligt realistiske talende avatarer ud fra korte videoer eller endda fotos. ElevenLabs skaber næsten identiske stemmekloner, der narrer folk 25% til 50% af tiden.
Dette frigør potentialet for at skabe utroligt vildledende deep fakes. AI'ens brug af kunstige "affektive færdigheder" - stemmeintonation, bevægelser, ansigtsudtryk - kan understøtte alle former for social engineering-svindel, misinformation osv.
Med GPT-4o og AstraAI kan på overbevisende vis formidle følelser, som den ikke har, hvilket fremkalder kraftigere reaktioner fra uvidende ofre og sætter scenen for snigende former for følelsesmæssig manipulation.
En nylig MIT undersøgelse viste også, at AI allerede er mere end i stand til at bedrage.
Vi er nødt til at overveje, hvordan det vil eskalere, når AI bliver mere i stand til at efterligne mennesker og dermed kombinere vildledende taktikker med realistisk adfærd.
Hvis vi ikke passer på, kan "Hende" nemt blive folks undergang i det virkelige liv.