Runway avduker sin hyperrealistiske Gen 3 Alpha T2V-generator

18. juni 2024

  • Det generative AI-selskapet Runway avduket sin nyeste tekst-til-video-generator kalt Gen 3 Alpha
  • Gen 3 Alpha genererer hyperrealistisk video med jevne bevegelser og finkornede videokontroller
  • Verktøyet bruker bare 90 sekunder på å generere et klipp på opptil 10 sekunder

Runway avduket sin nyeste tekst-til-video-generator (T2V), kalt Gen 3 Alpha, og demonstrasjonene antyder at dette kan være den beste AI-videogeneratoren hittil.

OpenAIs Sora imponerte oss for noen måneder siden, men det er fortsatt ikke noe ord om når (eller om) det vil bli utgitt. Runway gir allerede gratis og betalt tilgang til forrige generasjon Gen 2 T2V-verktøy.

Gen 2 lager noen greie videoer, men det er litt tilfeldig og genererer ofte merkelig anatomi eller klønete bevegelser når du genererer personer.

Gen 3 Alpha leverer hyperrealistisk video med jevne bevegelser og sammenhengende menneskemodeller.

Runway sier: "Gen-3 Alpha utmerker seg ved å generere uttrykksfulle menneskelige karakterer med et bredt spekter av handlinger, gester og følelser, noe som åpner opp for nye muligheter for historiefortelling."

Den forbedrede troverdigheten kommer også med en hastighetsoppgradering, med maksimal lengde på 10 sekunders klipp generert på bare 90 sekunder. Grensen på 10 sekunder er den samme som for Sora, dobbelt så høy som for Luma og tre ganger så høy som for Runways Gen 2.

I tillegg til de forbedrede menneskelige representasjonene, er den nøyaktige fysikken i videoene virkelig imponerende.

Runway sier at Gen 3 Alpha vil gi forbedrede kontrollmoduser som gjør det mulig for brukeren å velge spesifikke elementer som skal ha bevegelse og detaljert kamerabevegelseskontroll med "kommende verktøy for mer finkornet kontroll over struktur, stil og bevegelse".

Graden av kamerakontroll gir deg et inntrykk av hvor nær vi er slutten på tradisjonell filmproduksjon.

OpenAI har tidligere antydet at bekymringer om justering er en av grunnene til at de ikke har gitt ut Sora ennå. Runway sier at Gen 3 Alpha kommer med et nytt sett med sikkerhetstiltak og C2PA som gjør det mulig å spore opprinnelsen til generert video.

Generelle verdensmodeller

Ideen om å gjøre tekst om til videoer vil appellere til de fleste brukere, men Runway sier at Gen 3 Alpha representerer et skritt mot et annet mål.

Runway sier: "Vi tror at det neste store fremskrittet innen AI vil komme fra systemer som forstår den visuelle verden og dens dynamikk, og derfor starter vi en ny langsiktig forskningsinnsats rundt det vi kaller generelle verdensmodeller."

Det er mye raskere og billigere å lære opp en innebygd AI til å navigere og samhandle med omgivelsene når den er simulert. For at simuleringen skal være nyttig, må den representere fysikken og bevegelsene i virkelige omgivelser på en nøyaktig måte.

Runway sier at disse generelle verdensmodellene "ikke bare må fange opp dynamikken i verden, men også dynamikken til innbyggerne, noe som også innebærer å bygge realistiske modeller av menneskelig atferd".

Den sammenhengende bevegelsen, fysikken, de menneskelige trekkene og følelsene i Gen 3-demovideoene er bevis på et stort skritt i retning av å gjøre dette mulig.

OpenAI har nesten helt sikkert jobbet med en oppgradert Sora, men med Runways Gen 3 Alpha ble kappløpet om å bli den beste AI-videogeneratoren nettopp mye mer konkurransepreget.

Det er ikke kjent når Gen 3 Alpha vil bli lansert, men du kan se flere demoer her eller eksperimentere med Gen 2 her for nå.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser