Velkommen til denne uges oversigt over håndværksmæssige AI-nyheder.
I denne uge fandt vi ud af, at AI alligevel ikke kan hjælpe dig med at bygge et biovåben, eller måske kan den.
Tay Tays hær af Swifties bekæmpede falsk AI-porno.
Og AI fik os til at stole endnu mindre på politikerne, end vi gjorde i forvejen.
Lad os se nærmere på det.
Hurtig uretfærdighed
Taylor Swift blev målet for eksplicit AI dybe falske billeder i denne uge. Den forståelige forargelse, der fulgte, var også rettet mod platforme som X, som ikke syntes at have noget forsvar mod denne slags indhold.
Der var en udbredt reaktion fra både branchen og offentligheden. Taylors hær af Swifties gik i fuld Sherlock Holmes-mode. De opsporede og doxxede fyren, der angiveligt stod bag billederne efter at han selvsikkert havde sagt: "De finder mig aldrig."
Det er simpelthen for nemt for enhver at skabe den slags billeder ved hjælp af AI. Med InstantID er det lige blevet meget nemmere. Modellen gør det muligt for AI-billedgeneratorer at skabe reproduktioner ud fra et enkelt billede af en persons ansigt.
InstantID-forskningsartiklen blev offentliggjort før Swiftgate-dramaet, men gæt, hvis ansigt forskerne brugte som eksempel.
Utroligt
Det er officielt, vi kan ikke længere tro vores egne øjne og ører. Sams samling af de politiske deep fakes vi har set i løbet af de sidste par måneder, understreger den udvikling i både omfang og kapacitet, som AI giver svindlere.
AI-kloner af stemmer er blevet dramatisk bedre. Vi er gået fra robotagtige monotone forsøg til fuldskala imitation af tonefald og følelser. Den falske George Carlin-komedievideo på YouTube var et godt eksempel.
Carlins ejendom er nu sagsøger skaberne af det falske AI-komedieshow med nogle overraskende indrømmelser fra folkene bag videoen.
Dyb falsk lyd bliver lettere at lave og sværere at opdage. Demokratiseringen af disse AI-værktøjer betyder, at den almindelige mand på gaden bliver et mål. En rektor i Baltimore siger, at stemmen i en krænkende lydoptagelse ikke var hans, men en AI-falsk. Det må du selv vurdere.
Min første indskydelse var: "Han lyver", men så så jeg, hvad en lydteknisk ekspert sagde om klippet.
Åben og lukket
Hvad ligger der i et navn? "Open" i OpenAI ser ikke ud til at betyde det, det gjorde engang. OpenAI's afvigelse fra sin navnebror og grundlæggende principper er interessant læsning.
Virksomheden hævder, at den stadig er gennemsigtig, så længe du ikke stiller spørgsmål om dens regnskaber, modeltræningsdata, interessekonfliktpolitik, hvorfor de fyrede Altman ... Du har forstået det.
hvordan 2024 kommer til at se ud pic.twitter.com/bvgBFSAW4H
- kache (yacine) (KING OF DING) (@yacineMTB) 31. januar 2024
Noget, OpenAI har været ærlig omkring, er ambitionerne om at producere sine egne AI-chips. Altman sagde stille og roligt rejste til Sydkorea at chatte med Samsung og nogle andre chipproducenter for at få hjælp til dette.
OpenAI's uigennemsigtige operationer er måske mere i tråd med den hemmelighedsfulde natur hos ledere længere nord for Seoul.
En rapport, der afdækkede dynamikken i Nordkoreas genopståede AI-industri viser, at AI spiller en større rolle der, end nogle måske har troet. Jeg gætter på, at Kim Jong Un er en stor fan af Metas open source-strategi.
Biden-administrationen nu kræver, at cloud-virksomheder rapporterer udenlandske brugere. Hvis du er datalog i Nordkorea, kan det være en god idé at bruge en god VPN, når du opretter forbindelse til AWS.
GPT-4 bliver intelligent
Hvis du beder GPT-4 om at hjælpe dig med at brainstorme, bliver det lidt ensformigt med nogle af de ideer, den kommer med. Forskerne kom med nogle smarte hurtige tekniske strategier, der kan løse det.
Hvis du er på udkig efter nogle kreative bidrag til dit CV, kan ChatGPT også hjælpe dig med det. Det viser sig, at AI er meget brugt af jobansøgere, og Ansættende ledere opfordrer til det.
I denne uge opdagede vi noget andet, som GPT-4 var god til. Forskere fandt ud af, at GPT-4 var enig med ekspertlæger om Anbefalede behandlinger til slagtilfælde.
Patienter, der lider af lammelse eller ALS, kan snart få gavn af endnu et af Elon Musks mange projekter. Musk meddelte, at Neuralink afsluttede sin Første hjerneimplantat i et menneske.
Det kan i sidste ende give mulighed for direkte kommunikation mellem hjernen og enheder som mobiltelefoner eller computere. Lever vi i forløberen til The Matrix?
Musk har også forsøgt at rejse $6 milliarder til at tage sit AI-projekt xAI til næste niveau. Se på, hvad denne mand har gjort indtil nu, og giv ham så bare pengene. Hvornår sover han?
Sikkerhed først
RAND Corporation fik en masse kritik for en rapport fra oktober, der sagde, at LLM'er "måske" kunne hjælpe skurke med at lave et biovåben. Deres seneste rapport siger Det er måske ikke sandt alligevel.. Og så lavede OpenAI deres egen undersøgelse, der konkluderede, at en særlig version af GPT-4 kan måske hjælpe skurkene lidt.
En meget reel fare kan komme fra AI-agenter, der slippes løs på internettet uden opsyn. Forskerne skitserede de potentielle farer og foreslog tre ting, der kunne øge synligheden af AI-agenter for at gøre dem mere sikre.
Er din superkraft at påpege andres fejl? CDAO og DoD arrangerer events for at identificere bias i sprogmodeller. De vil endda betale dig Dusør for at opdage bias-bugs.
AI i EU
Den kommende EU's AI Act-topmøde 2024 starter i næste uge. Topmødet vil være en ideel mulighed for at diskutere forslag til AI-regulering og få styr på EU's AI Act og dens globale konsekvenser.
Nogle borgerrettighedsgrupper opfordrer EU til at Undersøg OpenAI og Microsoft. Den store sum penge, som Microsoft har investeret i OpenAI, rejser spørgsmål om indvirkningen på konkurrencen inden for AI-sektoren.
Det kan være svært at argumentere imod det, da Microsoft forventes at offentliggøre sin Bedste kvartalsvise omsætningsvækst i to år. Meget af det kommer fra den AI-udvikling, som OpenAI har hjulpet med at skabe.
Italiens databeskyttelsesmyndighed har hævet Bekymring for databeskyttelse på grund af ChatGPT's fejltrin med personlige oplysninger og konsekvenserne af injurierende hallucinationer.
Andre nyheder...
Her er nogle andre klikværdige AI-historier, som vi nød i denne uge:
- Den amerikanske National Science Foundation lancerede National forskningsressource for kunstig intelligens (NAIRR) pilotprogram.
- AI-virksomheder bliver nødt til at starte rapportering af deres sikkerhedstests til den amerikanske regering. Ikke alle er enige om, at det er en god idé.
"Alle dine modeller tilhører os."
Dette er slutspillet for den store lobbyindsats for at indfange lovgivningen fra dem, der ønsker at sælge "AI-sikkerhed som en tjeneste".
Modeller skal være uden tilladelse, så innovation kan blomstre. Dette er en form for beskatning af neurale net og vil være en nettoforringelse. pic.twitter.com/wpP7zwMCv3
- Beff Jezos - e/acc ⏩ (@BasedBeffJezos) 1. februar 2024
- Et tidligere bestyrelsesmedlem er kritisk over for risikoen forbundet med OpenAI's nuværende bestyrelsesstruktur og den magt, den har.
- Meta er gratis Kode Llama AI-programmeringsværktøjet lukker hullet med GPT-4.
- OpenAI og Common Sense Media indgår partnerskab for at beskytte teenagere mod skader og misbrug af AI.
Og så er det slut.
Til Swifties i vores publikum håber vi, at I er kommet jer over den traumatiske uge. Surfede du på X, da du fik øje på AI-billederne ved et uheld? Eller skulle du arbejde hårdt for at finde dem online?
Jeg tror ikke, at nogen vil lave falske nøgenbilleder med mit ansigt, men jeg vil måske være mere forsigtig med, hvem jeg sender en talebesked til i fremtiden. AI-stemmekloning er ved at blive vanvittigt.
Har du tilmeldt dig Neuralink-forsøget? Ville du lade Elon Musk sætte en chip i din hjerne? Musk nåede at sprænge et par SpaceX-raketter i luften, før han fik styr på det. Jeg tror, jeg venter, til de har fået styr på fejlene.
Fortæl os, hvad du synes, og send os links til saftige AI-historier, som vi måske har overset.