免费看在线a黄视频|99爽99操日韩毛片儿|91停婷在线无码观看|日韩三级片小视频|一级黄片免费播放|欧美成人视频网站导航|亚洲日韩欧美七区|国产视频在线观看91|人成视频免费在线播放|国产精品成人在线免费观看

字節(jié)的“羅福莉”,撐起了Seedance的半邊天

AGI
作為預(yù)訓(xùn)練負(fù)責(zé)人,塑造了模型的世界觀。

文  | 字母AI

隨著小米新模型的推出,“天才少女”羅福莉再度成為焦點(diǎn)。其實(shí)在AI科學(xué)家圈子里,女性數(shù)量雖然相對(duì)較少,但也絕非羅福莉一顆獨(dú)苗。在字節(jié)跳動(dòng),就有一位羅福莉式的人物。

她就是Seedance 2.0視頻生成模型的預(yù)訓(xùn)練負(fù)責(zé)人,曾妍。

一般聊起Seedance 2.0,大家普遍想到的人是掌舵人吳永輝、研發(fā)負(fù)責(zé)人周暢、視頻生成技術(shù)核心負(fù)責(zé)人蔣璐。

很少有人知道,曾妍的存在,同樣無可或缺。

因?yàn)轭A(yù)訓(xùn)練是整個(gè)模型的“基石”,它決定了模型的能力上限。

大多數(shù)人把預(yù)訓(xùn)練當(dāng)成“喂數(shù)據(jù)”,但真正的高手知道,預(yù)訓(xùn)練是在“塑造模型的世界觀”。

數(shù)據(jù)怎么配比、架構(gòu)怎么設(shè)計(jì)、訓(xùn)練策略怎么調(diào)整,每一個(gè)決策都在決定模型能看到什么、理解什么、生成什么。

無論你后面怎么努力優(yōu)化,預(yù)訓(xùn)練只要沒做好,這個(gè)模型就一輩子達(dá)不到Seedance 2.0現(xiàn)如今的高度。

不僅是貢獻(xiàn)大,曾妍的晉升速度在字節(jié)也是相當(dāng)快的。

從她畢業(yè)進(jìn)入字節(jié)開始算起,到現(xiàn)在的4-2職級(jí),曾妍僅僅花了5年時(shí)間。

4-2職級(jí)對(duì)應(yīng)高級(jí)總監(jiān)/權(quán)威架構(gòu)師層級(jí),屬于公司核心戰(zhàn)略級(jí)技術(shù)骨干,年包(含基本工資、年終獎(jiǎng)、股票)普遍在500萬以上。

她到底做了什么,才有如此成就?讓我們從她的求學(xué)之路說起。

01 從西交到字節(jié)

說實(shí)話,當(dāng)我第一次看到曾妍的履歷時(shí),并沒有覺得特別驚艷。

1997年出生,西安交通大學(xué)本科,加拿大蒙特利爾大學(xué)計(jì)算機(jī)碩士。這條路徑放到現(xiàn)在的AI圈里太常見了。

但接下來發(fā)生的事,就不那么“標(biāo)準(zhǔn)”了。

2021年9月,曾妍以校招生身份加入字節(jié)跳動(dòng) AI Lab,起點(diǎn)職級(jí)是算法工程師。

入職僅兩個(gè)月,曾妍就以第一作者身份在arXiv上發(fā)表了論文《Multi-Grained Vision Language Pre-Training: Aligning Texts with Visual Concepts》,也就是后來大家熟知的X-VLM模型。

這篇論文解決的問題,用大白話說就是:怎么讓 AI 既能看懂“大場(chǎng)面”,又能注意到“小細(xì)節(jié)”。

傳統(tǒng)的視覺語言模型有兩個(gè)極端。一種是“粗線條”派,只看圖像整體和文本的對(duì)應(yīng)關(guān)系,就像你給AI看一張照片,它只能說“這是海灘”,但說不出更多了。

另一種是“顯微鏡”派,依賴昂貴的目標(biāo)檢測(cè)器去摳每個(gè)物體,雖然能看到細(xì)節(jié),但計(jì)算成本高得嚇人,還得依賴大量人工標(biāo)注數(shù)據(jù)。

曾妍提出的X-VLM,就是取兩者之所長(zhǎng)。

它能同時(shí)學(xué)習(xí)從整體到局部、從場(chǎng)景到物體、從粗到細(xì)的多層次視覺概念,并與文本中的不同粒度信息精準(zhǔn)對(duì)齊。

或者我用一個(gè)我最近剛學(xué)會(huì)的話來形容:既見森林,又見樹木。

這個(gè)“多粒度對(duì)齊”的思想,在當(dāng)時(shí)看起來只是個(gè)學(xué)術(shù)創(chuàng)新,但它為曾妍后來擔(dān)任Seedance 2.0預(yù)訓(xùn)練負(fù)責(zé)人埋下了伏筆。

因?yàn)橐曨l生成的預(yù)訓(xùn)練,本質(zhì)上也是個(gè)多粒度建模的問題。

你要想生成一個(gè)好看的視頻,那就既要把握整體敘事節(jié)奏,讓一段視頻有連貫的故事線;又要控制每一幀的細(xì)節(jié)質(zhì)量,確保人物面容不變形、物體運(yùn)動(dòng)符合物理規(guī)律;還要建立時(shí)序維度上的關(guān)聯(lián)關(guān)系,讓前后幀之間的過渡自然流暢。

這剛和X-VLM的底層邏輯是一致的。

接下來的兩年,曾妍就像開了掛一樣。

她以第一作者身份在TPAMI、ICML、CVPR、ACL、NAACL等國際頂會(huì)發(fā)表了八篇論文,還擔(dān)任了TPAMI、ICML、NeurIPS、ICLR、ACL、EMNLP等頂會(huì)的審稿人。

2023年,一個(gè)關(guān)鍵轉(zhuǎn)折點(diǎn)到來了。

字節(jié)跳動(dòng)成立大模型研究部門Seed,曾妍和所在團(tuán)隊(duì)一同轉(zhuǎn)入。

這個(gè)時(shí)間節(jié)點(diǎn)你得放在大背景下看,2022年底ChatGPT橫空出世,2023年初各大公司紛紛All in大模型,字節(jié)也在這波浪潮中調(diào)整了技術(shù)戰(zhàn)略。

曾妍擅長(zhǎng)的多模態(tài)預(yù)訓(xùn)練,在視頻生成這個(gè)新戰(zhàn)場(chǎng)上,能發(fā)揮她的全部實(shí)力。

在Seed部門,曾妍作為第一作者主導(dǎo)了兩個(gè)重要項(xiàng)目,分別是CCLM和Lynx。

先說CCLM(Cross-View Language Modeling)。

這個(gè)項(xiàng)目讓AI模型同時(shí)學(xué)會(huì)“跨語言”和“跨模態(tài)”的理解能力。CCLM通過統(tǒng)一的預(yù)訓(xùn)練框架,讓在英文圖像-文本數(shù)據(jù)上訓(xùn)練的模型,可以零樣本遷移到中文、日文等其他語言的多模態(tài)任務(wù)上。

說白了,就是讓 AI 學(xué)會(huì)“舉一反三”——在英文視頻上學(xué)到的理解能力,能直接用到中文、日文、西班牙文的視頻上。

再說Lynx。

這是一個(gè)系統(tǒng)性研究如何訓(xùn)練GPT-4風(fēng)格多模態(tài)大語言模型的項(xiàng)目。2023年正是GPT-4剛發(fā)布的時(shí)候,大家都在摸索怎么做出“能看圖說話”的大模型。

曾妍團(tuán)隊(duì)通過一系列對(duì)比實(shí)驗(yàn),找出了模型架構(gòu)設(shè)計(jì)、訓(xùn)練數(shù)據(jù)配比、指令微調(diào)策略等關(guān)鍵因素,最終做出了 Lynx 模型,在多模態(tài)理解和指令跟隨能力上都表現(xiàn)出色。

用人話說,就是研究“怎么造出一個(gè)既能看懂圖片又能流暢對(duì)話的AI”,并且搞清楚了哪些因素真正重要。

真正讓曾妍“出圈”的,是2023年年底的PixelDance。

這個(gè)項(xiàng)目的論文題目很有意思,叫《如何讓像素跳舞》(Make Pixels Dance: High-Dynamic Video Generation)。它解決的是視頻生成領(lǐng)域一個(gè)長(zhǎng)期存在的矛盾,如何平衡動(dòng)態(tài)性和穩(wěn)定性。

你想想,如果一個(gè)AI生成的視頻動(dòng)作幅度很大、畫面變化劇烈,看起來確實(shí)生動(dòng)有趣,但很容易出現(xiàn)畫面崩壞、角色變形、物體突然消失這些“靈異事件”。

反過來,如果你追求穩(wěn)定性,讓角色和場(chǎng)景保持一致,人物面容不突變,那生成的視頻就容易僵硬,像幻燈片切換而不是流暢的動(dòng)態(tài)影像。

曾妍團(tuán)隊(duì)的突破在于,他們?cè)陬A(yù)訓(xùn)練階段就建立了嚴(yán)格的時(shí)序約束。

傳統(tǒng)的視頻生成模型都是先生成視頻,然后再一幀一幀去修補(bǔ)。PixelDance則是讓模型學(xué)會(huì)了在保持一致性的前提下生成動(dòng)態(tài)內(nèi)容。

核心創(chuàng)新點(diǎn)是在擴(kuò)散模型框架中,引入首幀+末幀的雙圖像指令,配合文本指令聯(lián)合約束視頻生成,同時(shí)在網(wǎng)絡(luò)結(jié)構(gòu)中新增時(shí)序卷積與時(shí)序注意力層,從生成的源頭就錨定了視頻的起止?fàn)顟B(tài),從而保證大動(dòng)態(tài)動(dòng)作下的主體與場(chǎng)景一致性。

就像訓(xùn)練一個(gè)舞者,從一開始就教她在保持平衡的前提下做大幅度動(dòng)作。

PixelDance的成功,讓曾妍在字節(jié)內(nèi)部的地位迅速提升。

2024年,她從算法工程師晉升為算法研究員,成為Seed團(tuán)隊(duì)中最年輕的研究員之一。這個(gè)晉升不只是對(duì)她學(xué)術(shù)能力的認(rèn)可,更重要的是,她證明了自己能把研究成果轉(zhuǎn)化為實(shí)際產(chǎn)品。

在大廠里,這兩種能力的差別,就像會(huì)做菜和會(huì)開餐廳的差別。

02 從 PixelDance 到 Seedance 2.0

有意思的是,PixelDance就是Seedance的前身。

Seed代表字節(jié)的大模型部門,dance則保留了“讓像素起舞”的核心理念。這個(gè)改名不只是品牌策略,更標(biāo)志著模型從研究原型向商業(yè)產(chǎn)品的轉(zhuǎn)變。

2025年6月11日,字節(jié)正式發(fā)布了Seedance 1.0,曾妍是該模型的核心研發(fā)負(fù)責(zé)人。

雖然直至2026年2月,曾妍才被字節(jié)官方確認(rèn)為Seedance 2.0 視頻模型預(yù)訓(xùn)練負(fù)責(zé)人,但知情人士爆料,早2025年下半年時(shí),曾妍就已經(jīng)正式牽頭Seedance 2.0的預(yù)訓(xùn)練全流程工作,成為該項(xiàng)目的核心一號(hào)位。

她的+2 leader是周暢,+3 leader是Seed團(tuán)隊(duì)負(fù)責(zé)人吳永輝。

Seedance 2.0核心技術(shù)突破之一是雙分支擴(kuò)散變換器架構(gòu),這是曾妍團(tuán)隊(duì)在預(yù)訓(xùn)練階段就確立的基礎(chǔ)架構(gòu)。

傳統(tǒng)視頻生成模型采用“先畫后配”的模式。即先生成視頻畫面,再單獨(dú)生成或匹配音頻。

這種方式的問題在于,音畫分離導(dǎo)致同步性差,人物說話時(shí)嘴型對(duì)不上,背景音樂的節(jié)奏與畫面情緒脫節(jié),音效出現(xiàn)的時(shí)機(jī)與畫面動(dòng)作不匹配。

Seedance 2.0通過視頻與音頻并行生成的方式,共享同一個(gè)理解編碼器,從根源上實(shí)現(xiàn)了音畫原生協(xié)同。

這個(gè)架構(gòu)設(shè)計(jì)的關(guān)鍵在于,讓模型在生成每一幀畫面的同時(shí),就考慮對(duì)應(yīng)的音頻應(yīng)該是什么樣的,而不是等畫面全部生成完再去“配”音頻。

文章開頭我就講了,預(yù)訓(xùn)練是整個(gè)模型能力的基石。

曾妍在這個(gè)階段需要處理海量的視頻數(shù)據(jù),建立視覺、文本、音頻等多模態(tài)之間的對(duì)齊關(guān)系。

她通過引入“跨分支校準(zhǔn)模塊”,實(shí)時(shí)校準(zhǔn)視頻與音頻的節(jié)奏、情緒與場(chǎng)景匹配度,確保嘴型與臺(tái)詞同步、音效與畫面契合、背景音樂與情緒氛圍一致。

預(yù)訓(xùn)練階段把所有的多模態(tài)對(duì)齊關(guān)系、物理規(guī)律、運(yùn)動(dòng)模式都塞進(jìn)模型里,成為“默認(rèn)項(xiàng)”。后續(xù)模型只要調(diào)用到相關(guān)內(nèi)容,就會(huì)立刻給出預(yù)訓(xùn)練時(shí)的結(jié)果。

它不是簡(jiǎn)單地讓模型記住訓(xùn)練數(shù)據(jù),而是讓模型從海量數(shù)據(jù)中提煉出普遍規(guī)律,形成對(duì)世界的基礎(chǔ)理解。

Seedance 2.0生成時(shí)長(zhǎng)1分鐘的2K視頻僅需60秒,比上一代Seedance 1.5 Pro快了30%。

速度提升的背后,是曾妍團(tuán)隊(duì)在預(yù)訓(xùn)練階段對(duì)模型架構(gòu)、訓(xùn)練策略、數(shù)據(jù)配比的精細(xì)調(diào)優(yōu)。

她的團(tuán)隊(duì)迭代速度極快,在預(yù)訓(xùn)練階段就完成了擴(kuò)散模型的多輪優(yōu)化。

優(yōu)化注意力機(jī)制減少冗余計(jì)算,改進(jìn)噪聲調(diào)度策略加快收斂速度,精選高質(zhì)量訓(xùn)練數(shù)據(jù)提升樣本效率。

每一個(gè)優(yōu)化點(diǎn)單獨(dú)看都不起眼,但累積起來就是質(zhì)的飛躍。模型規(guī)模越大,訓(xùn)練成本越高,每一個(gè)百分點(diǎn)的效率提升都意味著數(shù)百萬元的成本節(jié)約和數(shù)周的時(shí)間縮短。

Seedance 2.0還實(shí)現(xiàn)了多鏡頭敘事能力。這意味著模型不僅能生成長(zhǎng)視頻,還能理解“全景-中景-特寫”的專業(yè)分鏡邏輯,自動(dòng)規(guī)劃鏡頭切換,生成帶有蒙太奇效果的完整敘事序列。

這個(gè)能力很大程度上依賴于曾妍在預(yù)訓(xùn)練階段投喂的字節(jié)跳動(dòng)海量短視頻數(shù)據(jù)。

抖音每天產(chǎn)生數(shù)以億計(jì)的短視頻,這些視頻雖然大多是普通用戶拍攝,但其中不乏優(yōu)秀的鏡頭語言和敘事技巧。

曾妍團(tuán)隊(duì)從這些數(shù)據(jù)中篩選出高質(zhì)量樣本,讓模型學(xué)習(xí)到了人類導(dǎo)演的鏡頭語言和敘事節(jié)奏。這種從數(shù)據(jù)中提煉出的“導(dǎo)演直覺”。

03 曾妍與羅福莉

同為女性AI科學(xué)家,曾妍和羅福莉在模型研發(fā)中,都擅長(zhǎng)尋找“平衡點(diǎn)”。

在DeepSeek時(shí)期,羅福莉參與的DeepSeek-V2,通過MoE架構(gòu)的稀疏激活,把推理成本降到了GPT-4 Turbo的七十分之一,但是性能卻與頂尖的閉源模型十分相近。

這就像設(shè)計(jì)一個(gè)大型圖書館,雖然藏書百萬冊(cè),但每次查詢只需要翻開其中幾本,而不是把所有書都搬出來。這種“按需激活”的機(jī)制,讓大模型的成本驟然下降,卻不怎么損失性能。

羅福莉在性能與成本之間,找到了這樣一個(gè)平衡點(diǎn)。

到了號(hào)稱“性價(jià)比之王”的小米,羅福莉把DeepSeek的精神貫徹到底。她主導(dǎo)團(tuán)隊(duì)與北京大學(xué)聯(lián)合研發(fā)資源管理系統(tǒng)ARL-Tangram,讓模型的算力成本直降71.2%。

然而成本下降并不意味著性能下降。使用了該技術(shù)的萬億參數(shù)的旗艦?zāi)P蚆iMo-V2-Pro,在Artificial Analysis全球大模型綜合智能排行榜上位列第八、國內(nèi)第二。

羅福莉證明了一件事:性價(jià)比不是某個(gè)項(xiàng)目的偶然,而是一種可以跨平臺(tái)復(fù)制的方法論。

曾妍的平衡點(diǎn)則是前文提到的動(dòng)態(tài)性和穩(wěn)定性,讓視頻生成模型又能講好故事,又有畫面張力和視覺沖擊力。

兩人不同的是職業(yè)規(guī)劃。

羅福莉從阿里跳到幻方,再到DeepSeek,這條路徑是“從大廠到創(chuàng)業(yè)公司,從工程應(yīng)用到模型研究”。

曾妍則是在字節(jié)內(nèi)部一路深耕,5年時(shí)間完成了從校招畢業(yè)生,坐到了4-2的位置。

兩條路徑?jīng)]有高下之分。

在AI大模型這個(gè)燒錢、拼資源、看長(zhǎng)期積累的領(lǐng)域,年輕的技術(shù)人才依然可以通過對(duì)問題的深刻理解,在短時(shí)間內(nèi)做出關(guān)鍵貢獻(xiàn)。

有可能他們研究的方向,你聽都沒聽過,但就是有效。

她們的故事才剛剛開始。

本文系作者 字母AI 授權(quán)鈦媒體發(fā)表,并經(jīng)鈦媒體編輯,轉(zhuǎn)載請(qǐng)注明出處、作者和本文鏈接。
本內(nèi)容來源于鈦媒體鈦度號(hào),文章內(nèi)容僅供參考、交流、學(xué)習(xí),不構(gòu)成投資建議。
想和千萬鈦媒體用戶分享你的新奇觀點(diǎn)和發(fā)現(xiàn),點(diǎn)擊這里投稿 。創(chuàng)業(yè)或融資尋求報(bào)道,點(diǎn)擊這里

敬原創(chuàng),有鈦度,得贊賞

贊賞支持
發(fā)表評(píng)論
0 / 300

根據(jù)《網(wǎng)絡(luò)安全法》實(shí)名制要求,請(qǐng)綁定手機(jī)號(hào)后發(fā)表評(píng)論

請(qǐng) 登錄后輸入評(píng)論內(nèi)容

快報(bào)

更多

2026-03-28 23:01

澤連斯基稱與中東3國達(dá)成防務(wù)合作協(xié)議,涉聯(lián)合生產(chǎn)無人機(jī)

2026-03-28 22:35

山西太原一建筑發(fā)生火災(zāi),已致1人死亡25人受傷

2026-03-28 22:26

王文濤部長(zhǎng)發(fā)表書面致辭,支持世貿(mào)組織《電子商務(wù)協(xié)定》達(dá)成臨時(shí)實(shí)施安排

2026-03-28 21:54

40余家單位聯(lián)盟,中國最大人形機(jī)器人訓(xùn)練基地在京揭牌

2026-03-28 21:41

周鴻祎與劉慈欣在科幻大會(huì)預(yù)判:百億智能體或成新物種,AI推動(dòng)人類文明分化

2026-03-28 21:38

第五代宏光MINIEV上市,售價(jià)4.48萬-5.48萬元

2026-03-28 20:42

烏稱伊朗襲擊迪拜倉庫并致烏克蘭人傷亡消息不實(shí)

2026-03-28 20:23

3月28日新聞聯(lián)播速覽23條

2026-03-28 20:05

美國務(wù)卿和歐盟官員被曝就烏克蘭問題激烈交鋒

2026-03-28 19:44

“Token”這個(gè)詞的搜索量最高一天達(dá)到7.7萬次,比去年日均搜索量高出1850%

2026-03-28 19:39

飛捷科思發(fā)布中國首個(gè)可微分物理仿真引擎Fysics

2026-03-28 19:13

“網(wǎng)售產(chǎn)品質(zhì)量安全提升系列行動(dòng)2026”在北京啟動(dòng)

2026-03-28 19:03

國務(wù)院食安辦、市場(chǎng)監(jiān)管總局約談相關(guān)地方市級(jí)人民政府負(fù)責(zé)人,督辦“3?15”晚會(huì)曝光問題整改

2026-03-28 18:44

飛書 CLI 開源:AI 可直連飛書辦公套件

2026-03-28 18:36

馬來西亞說伊朗允許馬滯留油輪通行霍爾木茲海峽

2026-03-28 18:02

今年前三個(gè)月中國創(chuàng)新藥對(duì)外授權(quán)交易總額超600億美元

2026-03-28 17:39

中國和菲律賓舉行南海問題雙邊磋商機(jī)制第十一次會(huì)議

2026-03-28 17:30

印尼正式實(shí)施16歲以下社媒禁令,約7000萬人受影響

2026-03-28 17:04

美國加州禁止官員借內(nèi)幕消息在預(yù)測(cè)市場(chǎng)牟利

2026-03-28 17:02

北京“超現(xiàn)場(chǎng)”生態(tài)共同體建設(shè)暨全國覆蓋啟動(dòng)

掃描下載App