提示:一艘木頭玩具船在地毯上航行

給視頻注入「鏡頭語言」

在視頻制作中有個非常重要的概念——鏡頭語言。通過不同的鏡頭選擇、角度、運動和組合,來表達故事情節(jié)、揭示角色心理、營造氛圍以及引導(dǎo)觀眾情感。

現(xiàn)有AI生成的視頻,能夠明顯地感覺到鏡頭語言的單調(diào),鏡頭的運動局限于輕微幅度的推、拉、移等簡單鏡頭。深究背后的原因看,因為現(xiàn)有的視頻內(nèi)容生成大多是先通過生成單幀畫面,再做連續(xù)的前后幀預(yù)測,但主流的技術(shù)路徑,很難做到長時序的連貫預(yù)測,只能做到小幅的動態(tài)預(yù)測。

「Vidu」則突破了這些局限。在一個「海邊小屋」為主題的片段中,我們可以看到,「Vidu」一次生成的一段片段中涉及多個鏡頭,畫面既有小屋的近景特寫,也有望向海面的遠眺,整體看下來有種從屋內(nèi)到走廊再到欄桿邊賞景的敘事感。

包括從短片中的多個片段能看到,「Vidu」能直接生成轉(zhuǎn)場、追焦、長鏡頭等效果,包括能夠生成影視級的鏡頭畫面,給視頻注入鏡頭語言,提升畫面的整體敘事感。

保持時間和空間的一致性

視頻畫面的連貫和流暢性至關(guān)重要,這背后其實是人物和場景的時空一致性,比如人物在空間中的運動始終保持一致,場景也不能在沒有任何轉(zhuǎn)場的情況下突變。而這一點 AI 很難實現(xiàn),尤其時長一長,AI生成的視頻將出現(xiàn)敘事斷裂、視覺不連貫、邏輯錯誤等問題, 這些問題會嚴(yán)重影響視頻的真實感和觀賞性。

「Vidu」在一定程度上克服了這些問題。從它生成的一段“帶珍珠耳環(huán)的貓”的視頻中可以看到,隨著鏡頭的移動,作為畫面主體的貓在3D空間下一直保持著表情、服飾的一致,視頻整體上連貫、流暢,保持了很好的時間、空間一致性。

,時長00:15提示:這是一只藍眼睛的橙色貓的肖像,慢慢地旋轉(zhuǎn),靈感來自維米爾的《戴珍珠耳環(huán)的少女》,畫面上戴著珍珠耳環(huán),棕色頭發(fā)像荷蘭帽一樣,黑色背景,工作室燈光。

模擬真實物理世界

Sora令人驚艷的一大特點,就是能夠模擬真實物理世界的運動,例如物體的移動和相互作用。其中Sora有發(fā)布的一個經(jīng)典案例,“一輛老式SUV行駛在山坡上”的畫面,非常好地模擬了輪胎揚起的灰塵、樹林中的光影以及車行駛過程中的陰影變化:

在同樣的提示詞下,「Vidu」與Sora生成效果高度接近,灰塵、光影等細(xì)節(jié)與人類在真實物理世界中的體驗非常接近。

提示:鏡頭跟隨一輛帶有黑色車頂行李架的白色老式SUV,它在陡峭的山坡上一條被松樹環(huán)繞的陡峭土路上加速行駛,輪胎揚起灰塵,陽光照射在SUV上,給整個場景投射出溫暖的光芒。土路緩緩地蜿蜒延伸至遠方,看不到其他汽車或車輛。道路兩旁都是紅杉樹,零星散落著一片片綠意。從后面看,這輛車輕松地沿著曲線行駛,看起來就像是在崎嶇的地形上行駛。土路周圍是陡峭的丘陵和山脈,上面是清澈的藍天和縷縷云彩。

當(dāng)然在“帶有黑色車頂行李架”的局部細(xì)節(jié)上,「Vidu」沒能生成出來,但也瑕不掩瑜,整體效果已高度接近真實世界。

豐富的想象力

與實景拍攝相比,用AI生成視頻有一個很大的優(yōu)勢——它可以生成現(xiàn)實世界中不存在的畫面。以往,這些畫面往往要花費很大的人力、物力去搭建或做成特效,但是AI短時間就可以自動生成了。

比如在下面這個場景中,「帆船」、「海浪」罕見地出現(xiàn)在了畫室里,而且海浪與帆船的交互動態(tài)非常自然。

包括短片中的“魚缸女孩”的片段,奇幻但又具有一定的合理感,這種能夠虛構(gòu)真實世界不存在的畫面,對于創(chuàng)作超現(xiàn)實主義內(nèi)容非常有幫助,不僅可以激發(fā)創(chuàng)作者的靈感,提供新穎的視覺體驗,還能拓寬藝術(shù)表達的邊界,帶來更加豐富和多元化的內(nèi)容形式。

理解中國元素

除了以上四方面的特點外,我們從「Vidu」放出的短片中還看到了一些不一樣的驚喜,「Vidu」能夠生成特有中國元素的畫面,比如熊貓、龍、宮殿場景等。

提示:在寧靜的湖邊,一只熊貓熱切地彈著吉他,讓整個環(huán)境變得活躍起來。晴朗天空下平靜的水面倒映著這一場景,以生動的全景鏡頭捕捉到,將現(xiàn)實主義與大熊貓活潑的精神融為一體,創(chuàng)造出活力與平靜的和諧融合。

兩個月快速突破的“秘籍”

此前,唐家渝給出的趕上Sora的時間,是“很難說是三個月還是半年”。

但如今僅僅過去一個多月時間,團隊就實現(xiàn)了突破,而且據(jù)透露,3月份公司內(nèi)部就實現(xiàn)了8秒的視頻生成,緊接著4月份突破了16秒生成。短短兩個月時間,背后是如何做到的?

一是選對了技術(shù)路線

「Vidu」底層基于完全自研的U-ViT架構(gòu),該架構(gòu)由團隊在2022年9月提出,早于Sora采用的DiT架構(gòu),是全球首個Diffusion和Transformer融合的架構(gòu)。

Transformer架構(gòu)被廣泛應(yīng)用于大語言模型,該架構(gòu)的優(yōu)勢在于scale特性,參數(shù)量越大,效果越好,而Diffusion被常用于傳統(tǒng)視覺任務(wù)(圖像和視頻生成)中。

融合架構(gòu)就是在Diffusion Model(擴散模型)中,用Transformer替換常用的U-Net卷積網(wǎng)絡(luò),將Transformer的可擴展性與Diffusion模型處理視覺數(shù)據(jù)的天然優(yōu)勢進行融合,能在視覺任務(wù)下展現(xiàn)出卓越的涌現(xiàn)能力。

不同于市面上之前的一些“類Sora”模型,長視頻的實現(xiàn)其實是通過插幀的方式,在視頻的每兩幀畫面中增加一幀或多幀來提升視頻的長度。這種方法就需要對視頻進行逐幀處理,通過插入額外的幀來改善視頻長度和質(zhì)量。整體畫面就會顯得僵硬而又緩慢。

另外,還有一些視頻工具看似實現(xiàn)了長視頻,實際打了“擦邊球”。底層集合了許多其他模型工作,比如先基于Stable Diffusion、Midjourney生成單張畫面,再圖生4s短視頻,再做拼接。表面看時長是長了,但本質(zhì)還是“短視頻生成”的內(nèi)核。

但「Vidu」基于純自研的融合架構(gòu),底層是“一步到位”,不涉及中間的插幀和拼接等多步驟的處理,文本到視頻的轉(zhuǎn)換是直接且連續(xù)的。直觀上,我們可以看到“一鏡到底”的絲滑感,視頻從頭到尾連續(xù)生成,沒有插幀痕跡。

二是扎實的工程化基礎(chǔ)

早在2023年3月,基于U-ViT架構(gòu),團隊在開源的大規(guī)模圖文數(shù)據(jù)集LAION-5B上就訓(xùn)練了10億參數(shù)量的多模態(tài)模型——UniDiffuser,并將其開源。

UniDiffuser主要擅長圖文任務(wù),能支持圖文模態(tài)間的任意生成和轉(zhuǎn)換。UniDiffuser的實現(xiàn)有一項重要的價值——首次驗證了融合架構(gòu)在大規(guī)模訓(xùn)練任務(wù)中的可擴展性(Scaling Law),相當(dāng)于將U-ViT 架構(gòu)在大規(guī)模訓(xùn)練任務(wù)中的所有環(huán)節(jié)流程都跑通。值得一提的,同樣是圖文模型,UniDiffuser比最近才切換到DiT架構(gòu)的Stable Diffusion 3領(lǐng)先了一年。

這些在圖文任務(wù)中積累工程經(jīng)驗為視頻模型的研發(fā)打下了基礎(chǔ)。因為視頻本質(zhì)上是圖像的流,相當(dāng)于是圖像在時間軸上做了一個擴增。因此,在圖文任務(wù)上取得的成果往往能夠在視頻任務(wù)中得到復(fù)用。Sora就是這么做的:它采用了DALL·E 3的重標(biāo)注技術(shù),通過為視覺訓(xùn)練數(shù)據(jù)生成詳細(xì)的描述,使模型能夠更加準(zhǔn)確地遵循用戶的文本指令生成視頻。

據(jù)悉,「Vidu」也復(fù)用了生數(shù)科技在圖文任務(wù)的很多經(jīng)驗,包括訓(xùn)練加速、并行化訓(xùn)練、低顯存訓(xùn)練等等,從而快速跑通了訓(xùn)練流程。據(jù)悉,他們通過視頻數(shù)據(jù)壓縮技術(shù)降低輸入數(shù)據(jù)的序列維度,同時采用自研的分布式訓(xùn)練框架,在保證計算精度的同時,通信效率提升1倍,顯存開銷降低80%,訓(xùn)練速度累計提升40倍。

從圖任務(wù)的統(tǒng)一到融合視頻能力,「Vidu」可被視為一款通用視覺模型,能夠支持生成更加多樣化、更長時長的視頻內(nèi)容,官方也透露,「Vidu」目前并在加速迭代提升,面向未來,「Vidu」靈活的模型架構(gòu)也將能夠兼容更廣泛的多模態(tài)能力。

One More Thing

最后,再聊下「Vidu」背后的團隊——生數(shù)科技,這是一支清華背景的精干團隊,致力于專注于圖像、3D、視頻等多模態(tài)大模型領(lǐng)域。

生數(shù)科技的核心團隊來自清華大學(xué)人工智能研究院。首席科學(xué)家由清華人工智能研究院副院長朱軍擔(dān)任;CEO唐家渝本碩就讀于清華大學(xué)計算機系,是THUNLP組成員;CTO鮑凡則是清華大學(xué)計算機系博士生、朱軍教授的課題組成員,長期關(guān)注擴散模型領(lǐng)域研究,U-ViT和UniDiffuser兩項工作均是由他主導(dǎo)完成的。

團隊從事生成式人工智能和貝葉斯機器學(xué)習(xí)的研究已有20余年,在深度生成模型突破的早期就開展了深入研究。在擴散模型方面,團隊于國內(nèi)率先開啟了該方向的研究,成果涉及骨干網(wǎng)絡(luò)、高速推理算法、大規(guī)模訓(xùn)練等全棧技術(shù)方向。

團隊于ICML、NeurIPS、ICLR等人工智能頂會發(fā)表多模態(tài)領(lǐng)域相關(guān)論文近30篇,其中提出的免訓(xùn)練推理算法Analytic-DPM、DPM-Solver等突破性成果,獲得ICLR杰出論文獎,并被OpenAI、蘋果、Stability.ai等國外前沿機構(gòu)采用,應(yīng)用于DALL·E 2、Stable Diffusion等明星項目中。

自2023年成立以來,團隊已獲得螞蟻集團、啟明創(chuàng)投、BV百度風(fēng)投、字節(jié)系錦秋基金等多家知名產(chǎn)業(yè)機構(gòu)的認(rèn)可,完成數(shù)億元融資。據(jù)悉,生數(shù)科技是目前國內(nèi)在多模態(tài)大模型賽道估值最高的創(chuàng)業(yè)團隊。

 

本文系作者 量子位 授權(quán)鈦媒體發(fā)表,并經(jīng)鈦媒體編輯,轉(zhuǎn)載請注明出處、作者和本文鏈接。
本內(nèi)容來源于鈦媒體鈦度號,文章內(nèi)容僅供參考、交流、學(xué)習(xí),不構(gòu)成投資建議。
想和千萬鈦媒體用戶分享你的新奇觀點和發(fā)現(xiàn),點擊這里投稿 。創(chuàng)業(yè)或融資尋求報道,點擊這里。

敬原創(chuàng),有鈦度,得贊賞

贊賞支持
發(fā)表評論
0 / 300

根據(jù)《網(wǎng)絡(luò)安全法》實名制要求,請綁定手機號后發(fā)表評論

登錄后輸入評論內(nèi)容

掃描下載App