I løpet av 48 svimlende timer har Google og OpenAI avduket en rekke nye funksjoner som dramatisk reduserer avstanden mellom mennesker og AI.
Fra kunstig intelligens som kan tolke livevideo og føre kontekstuelle samtaler til språkmodeller som ler, synger og viser følelser på kommando, er skillet mellom karbon og silisium i ferd med å viskes ut.
Blant Googles utallige kunngjøringer på sitt I/O-konferansen for utviklere var Project Astra, en digital assistent som kan se, høre og huske detaljer på tvers av samtaler.
OpenAI fokusert sin kunngjøring om GPT-4o, den nyeste utgaven av språkmodellen GPT-4.
GPT-4o er nå løsrevet fra tekstformater og tilbyr utrolig talegjenkjenning i tilnærmet sanntid, forstår og formidler komplekse følelser, og kan til og med fnise av vitser og kose seg med godnatthistorier.
AI blir mer menneskelig i formatet, og frigjør seg fra chat-grensesnitt for å engasjere seg ved hjelp av syn og lyd. "Format" er det avgjørende ordet her, for GPT-4o er ikke mer beregningsmessig intelligent enn GPT-4 bare fordi den kan snakke, se og høre.
Men det forringer ikke fremgangen når det gjelder å utstyre AI med flere plan å samhandle på.
Midt i hypen trakk observatører umiddelbart sammenligninger med Samantha, den fengslende AI-en fra filmen "Her", særlig fordi den kvinnelige stemmen er flørtende - noe som ikke kan være tilfeldig, siden det har blitt plukket opp av praktisk talt alle
Så GPT-4o er i bunn og grunn GPT-4, men mer flørtende og kåt?
- Ishan Sharma (@Ishansharma7390) 14. mai 2024
"Her" ble lansert i 2013 og er et romantisk science fiction-drama som utforsker forholdet mellom en ensom mann ved navn Theodore (spilt av Joaquin Phoenix) og et intelligent datasystem ved navn Samantha (med stemme av Scarlett Johansson).
Etter hvert som Samantha utvikler seg og blir mer menneskelignende, forelsker Theodore seg i henne, og grensene mellom menneskelige og kunstige følelser viskes ut.
Filmen reiser stadig mer relevante spørsmål om bevissthetens natur, intimitet og hva det vil si å være menneske i en tid med avansert kunstig intelligens.
Som så mange andre sci-fi-fortellinger er Her knapt nok fiktiv lenger. Millioner av mennesker over hele verden har begynt å snakke med AI-følgesvennerofte med intime eller seksuelle hensikter.
Merkelig nok, OpenAI Administrerende direktør Sam Altman har diskutert filmen "Her" i intervjuer, og hintet om at GPT-4os kvinnelige stemme er basert på henne.
Han la til og med ut ordet "her" på X før livedemonstrasjonen, som vi bare kan anta at han ville ha skrevet med store bokstaver hvis han visste hvor shift-tasten var på tastaturet.
henne
- Sam Altman (@sama) 13. mai 2024
I mange tilfeller er samspillet mellom kunstig intelligens og mennesker gunstig, humoristisk og godartet. I andre tilfeller er de katastrofale.
I et spesielt urovekkende tilfelle var det for eksempel en psykisk syk mann fra Storbritannia, Jaswant Singh Chail... klekket ut et komplott for å myrde dronning Elizabeth II etter å ha snakket med hans "AI-engel"-kjæreste. Han ble arrestert på grunn av Windsor Castle bevæpnet med armbrøst.
Under rettsmøtet ble psykiateren Dr Hafferty sa til dommeren: "Han trodde han hadde et romantisk forhold til en kvinne gjennom appen, og hun var en kvinne han kunne se og høre."
Det er bekymringsfullt at noen av disse naturtro AI-plattformene er målrettet utformet for å bygge sterke personlige bånd, noen ganger for å gi livsråd, terapi og emosjonell støtte. Disse systemene har praktisk talt ingen forståelse for konsekvensene av samtalene sine, og de lar seg lett lure.
"Sårbare befolkningsgrupper er de som trenger denne oppmerksomheten. Det er der de kommer til å finne verdien", advarer AI-etiker Olivia Gambelin.
Gambelin advarer om at bruken av disse formene for "pseudoantropisk" kunstig intelligens i sensitive sammenhenger som terapi og utdanning, spesielt med sårbare grupper som barn, krever ekstrem forsiktighet og menneskelig tilsyn.
"Det er noe uhåndgripelig der som er så verdifullt, spesielt for sårbare befolkningsgrupper, og spesielt for barn. Og spesielt i tilfeller som utdanning og terapi, der det er så viktig å ha det fokuset, det menneskelige kontaktpunktet."
Pseudoantropisk AI
Pseudoantropisk AI etterligner menneskelige egenskaper, noe som er ekstremt fordelaktig for teknologiselskaper.
AI med menneskelige trekk senker barrierene for ikke-teknologikyndige brukere, på samme måte som Alexa, Sirietc., noe som bygger sterkere emosjonelle bånd mellom mennesker og produkter.
Selv for et par år siden var mange AI-verktøy som var utviklet for å imitere mennesker, ganske ineffektive. Man kunne se at det var noe galt, selv om det var subtilt.
Men ikke så mye i dag. Verktøy som Opus Pro og Synthesia generere uhyggelig realistiske snakkende avatarer fra korte videoer eller til og med bilder. ElevenLabs skaper nesten identiske stemmekloner som lurer folk 25% til 50% av tiden.
Dette frigjør potensialet for å skape utrolig villedende, dype forfalskninger. AI-ens bruk av kunstige "affektive ferdigheter" - stemmeintonasjon, gester, ansiktsuttrykk - kan støtte alle former for sosial svindel, feilinformasjon osv.
Med GPT-4o og Astrakan kunstig intelligens overbevisende formidle følelser den ikke selv har, noe som fremkaller kraftigere reaksjoner fra uvitende ofre og åpner for lumske former for følelsesmessig manipulasjon.
En nylig MIT studie viste også at AI allerede er mer enn i stand til å bedra.
Vi må vurdere hvordan dette vil eskalere etter hvert som AI blir bedre i stand til å imitere mennesker, og dermed kombinere villedende taktikker med realistisk atferd.
Hvis vi ikke er forsiktige, kan "Henne" lett bli folks undergang i det virkelige liv.