Runway, la startup AI, ha annunciato il suo ultimo modello di video AI, Gen-4progettato per generare scene e caratteri coerenti su più scatti, affrontando una sfida comune nei video generati dall’AI.
Pista stati Su X che Gen-4 offre agli utenti più “continuità e controllo” per lo storytelling.
Il modello di sintesi video Gen-4, che sta attualmente lanciando agli utenti a pagamento e aziendale, consente la creazione di caratteri e oggetti tra i colpi usando un’unica immagine di riferimento e descrizioni della composizione desiderata, generando output coerenti da più angoli.
Per dimostrare le sue capacità, Runway ha rilasciato un video che mostra una donna che mantiene il suo aspetto in vari scatti, contesti e condizioni di illuminazione. Questa versione segue il generatore di video Alpha Gen-3 di Runway, che ha esteso le lunghezze dei video ma ha anche affrontato polemiche a causa della formazione segnalata su video raschiati su YouTube e film piratati.