在线中文AV精品人人草视频|日韩特黄AA片av超碰|国模免费在线视频|国产高清无码三级片|小毛片小电影人人上人人操|春色av无码黄片无码区|很爽很爽的香蕉视频|日本伊人小视频|亚洲AV网站免费|四月婷婷精品视频在线

Seedance 2.0火出圈,意味著AGI又近了一步

“目前暫不支持輸入真人素材作為主體參考。我們深知創(chuàng)意的邊界是尊重?!?/p>

這是打開即夢web平臺時用戶看到的提示。就在前一天,Seedance 2.0因真人肖像生成能力引發(fā)爭議,字節(jié)跳動緊急下線了真人人臉?biāo)夭膮⒖脊δ堋?/p>

引發(fā)禁令的是影視颶風(fēng)Tim在凌晨發(fā)布的一條視頻,他說Seedance 2.0是“改變視頻行業(yè)的 AI”,可他的語氣并不是贊嘆,而是一種警醒。

原因是他發(fā)現(xiàn),僅上傳自己的人臉照片,模型就能自動生成與他本人高度相似的聲音,甚至精準(zhǔn)匹配語氣特質(zhì)。真實地讓人感到害怕。

但在功能下線之前,Seedance 2.0已經(jīng)完成了一次現(xiàn)象級的出圈。《黑神話·悟空》制作人馮驥在微博上稱其為“當(dāng)前地表最強的視頻生成模型”,并警告“逼真的視頻將變得毫無門檻”。

印象中在此之前,馮驥給予這么高評價的,也就是DeepSeek。

自字節(jié)跳動開啟 Seedance 2.0開始灰度測試,不到48小時,X、抖音等社交平臺充滿了鋪天蓋地各種基于該模型的 AI 視頻。

《火影忍者》、《咒術(shù)回戰(zhàn)》、《奧特曼》……基本上你能想到的作品全都有。

海外反應(yīng)同樣炸裂。X 平臺上,一位學(xué)習(xí)7年數(shù)字電影制作的用戶發(fā)帖:“這是唯一讓我感到害怕的模型,90% 我學(xué)到的技能它都能實現(xiàn)。”

AIGC圈大佬,Sensive和KidsHackClub的聯(lián)合創(chuàng)始人萊納斯·??纤顾罚↙inus Ekenstam)直接回復(fù)這條X說:“它會讓互聯(lián)網(wǎng)崩潰,百分之百?!盚acker News上,更是有人直言“這是2026年最好的視頻模型,超越Sora 2”。

超越Sora尚在其次,更重要的是,物理世界的準(zhǔn)確建模被視為通用AGI的關(guān)鍵能力之一,而Seedance 2.0讓業(yè)內(nèi)人士看到了實現(xiàn)這一點的可能性。

2月9日,A 股的傳媒、短劇、AI 應(yīng)用板塊也隨著 Seedance 2.0 的爆火而集體大漲。上海電影、完美世界等公司單日漲幅達(dá) 10%,分析師預(yù)期該模型將大幅降低制作成本、加速內(nèi)容生產(chǎn)周期。

爆火背后,問題同樣尖銳。

Sora 2可以說是前車之鑒。剛推出時,Sora 2好評如潮,然而僅僅過去兩個月,留存率就無限接近于零。除此之外,版權(quán)風(fēng)險、數(shù)字授權(quán)等問題,也已經(jīng)在Sora 2上面暴露過一次了。

字節(jié)會帶著Seedance 2.0,找到另一條出路嗎?

01

什么是Seedance 2.0

在了解Seedance 2.0火爆之前,不妨讓我們先來認(rèn)識一下它。

Seedance 2.0支持文本、圖片(最多 9 張)、視頻(最多 3 段,總長≤15 秒)、音頻(最多 3 段,總長≤15 秒)同時輸入,混合上限 12 個文件。

用戶可用圖片定義構(gòu)圖和角色、視頻指定動作和鏡頭運動、音頻驅(qū)動節(jié)奏。

相比之下,Sora 2的Cameo功能僅支持單張照片植入,Veo 3和Kling 2.6主要依賴文本加單圖輸入。

這種多模態(tài)能力不是簡單的素材疊加。字節(jié)引入了@提及系統(tǒng),這樣就能明確控制每個資源。

在提示詞中,用戶可以寫“ @Image1作為第一幀,參考@Video1的運鏡,使用@Audio1作為背景音樂節(jié)奏”。

其最大的好處就是,改變了以往“扔一堆素材給AI,然后碰運氣”的創(chuàng)作模式。

模型采用“Seedance V2運動合成”技術(shù),在重力、動量、碰撞、流體等物理現(xiàn)象的模擬上有明顯改進(jìn)。

實測顯示,布料飄動、液體飛濺、肢體運動的軌跡更接近真實物理規(guī)律,減少了“漂浮感”和物體穿模等常見偽影。

Seedance 2.0還有一個很重要的能力就是精準(zhǔn)首尾幀。

用戶上傳起始幀與結(jié)束幀圖像后,模型智能推演中間動態(tài)過程,確保轉(zhuǎn)場自然、節(jié)奏穩(wěn)定。這對廣告定格動畫、劇情銜接等強控制需求場景特別有用。

分鏡驅(qū)動視頻生成支持按分鏡腳本逐鏡生成,跨鏡頭維持角色外觀、光影邏輯與美術(shù)風(fēng)格一致性。有用戶用Lovart的Skill生成分鏡故事板,直接復(fù)制到Seedance 2.0中,生成的視頻比用ComfyUI手工調(diào)參做的還細(xì)致。

這說明模型不僅理解單個畫面,還理解鏡頭之間的敘事邏輯。

Seedance 2.0的編輯能力也得到了增強,支持對已有視頻進(jìn)行角色更替、刪減、增加。用戶可以直接在生成結(jié)果中編輯局部畫面,而不是推倒重來。這大幅提升了成片率,也讓創(chuàng)作流程更接近傳統(tǒng)視頻編輯的體驗。

從單一提示詞可生成包含多個鏡頭切換的完整片段。

模型能自動規(guī)劃分鏡、執(zhí)行運鏡(如漸進(jìn)、環(huán)繞、跟隨)、添加剪輯效果(如慢動作、鏡頭抖動)。多鏡頭間保持角色面部特征、服裝細(xì)節(jié)、場景光照、敘事基調(diào)的一致性,過渡較為自然。

最后就是視聽聯(lián)合生成方面,音頻與視覺在創(chuàng)作過程中相互影響。

支持8種以上語言的音素級口型同步,環(huán)境音效與視覺事件實時對應(yīng)。腳步聲匹配角色移動,玻璃破碎伴隨清脆音效。上傳音頻可驅(qū)動視頻生成,BGM節(jié)拍對應(yīng)鏡頭切換。

通過火山引擎RayFlow優(yōu)化,生成速度比1.0版本提升約30%。10秒1080p帶音頻視頻約需2-5分鐘。Pro版本支持原生2K分辨率,視頻可延長至2分鐘,相比Sora 2的15秒上限和Kling 2.6的10秒限制有明顯優(yōu)勢。

角色一致性機制引入增強版“身份持久性”注意力機制,在不同鏡頭、角度、光照條件下保持角色特征穩(wěn)定。面部輪廓、發(fā)型、服裝紋理等細(xì)節(jié)在鏡頭切換時漂移較少。

02

出圈竟是因為AGI?

在X、抖音等社交媒體上,Seedance 2.0最受關(guān)注的內(nèi)容集中在熱門IP角色的格斗與動作視頻:真人版七龍珠戰(zhàn)斗、奧特曼對決、運動廣告。

這類內(nèi)容的點贊數(shù)普遍在數(shù)十萬級別。

從視頻的觀感來講,動作場景對物理模擬精度要求極高,任何失真都會破壞可信度。

拳擊手出拳時的重心轉(zhuǎn)移、擊中目標(biāo)的形變反饋、被擊者后退距離需符合力學(xué)規(guī)律。AIGC藝術(shù)家DynamicWang用Seedance 2.0制作的Nike風(fēng)廣告中,四位女性的肌肉線條、動作幅度與其運動項目(體操、拳擊、跑步、游泳)高度匹配。

體操翻轉(zhuǎn)、武術(shù)連續(xù)踢腿、跑酷墻面反彈等動作鏈條中,任何一幀的速度、角度、加速度偏差都會產(chǎn)生“機械感”。Seedance 2.0通過時序一致性建模,使動作流暢度接近實拍效果。

格斗時的揚塵、武器破風(fēng)聲、衣袂翻飛的褶皺等二次物理效應(yīng)增強了場景真實感。

物理世界的準(zhǔn)確建模被視為通用AGI的關(guān)鍵能力之一。

“物體如何運動”“力如何傳遞”“因果如何發(fā)生”,雖然這些事情對我們早已司空見慣了,但是對于AI這還是新鮮事。

當(dāng)AI模型能準(zhǔn)確預(yù)測拳頭擊中目標(biāo)后的形變、水花濺起的軌跡、布料隨風(fēng)飄動的形態(tài),意味著它不再是簡單的“像素生成器”,而是建立了對真實世界運作機制的內(nèi)部表征。

楊立昆曾多次強調(diào),AGI必須具備對物理世界的常識性理解。

Seedance 2.0在物理模擬上的提升,本質(zhì)上是其世界模型能力的增強,模型開始理解物體之間的關(guān)系、動作的因果鏈條、環(huán)境對物體的約束。

傳統(tǒng)生成模型依賴“數(shù)據(jù)中出現(xiàn)過什么,就生成什么”的統(tǒng)計規(guī)律,然而真實世界遵循因果邏輯,推倒多米諾骨牌,后續(xù)骨牌必然倒下;拳頭擊中臉部,頭部必然后仰。

Seedance 2.0能夠生成符合物理規(guī)律的格斗視頻,說明模型內(nèi)部已經(jīng)形成了某種因果推理能力。

它不是記住了“拳擊的樣子”,而是理解了“力的作用必然產(chǎn)生反作用”這一底層邏輯。這種能力是從“模式識別”向“概念推理”的跨越。

傳統(tǒng)AI是停留在統(tǒng)計層面的擬合,只有當(dāng)AI理解了物理世界,才能真正與現(xiàn)實交互。

這也是為什么之前各大廠一直強調(diào)多模態(tài)。

因為咱們?nèi)祟惖拇竽X理解物理世界,本質(zhì)上就是多模態(tài)。我們通過視覺看到物體運動,通過聽覺感知碰撞聲響,通過觸覺理解材質(zhì)硬度,這些感官信息在大腦中融合形成統(tǒng)一的世界理解。

前文提到的Seedance 2.0視聽聯(lián)合生成架構(gòu),在某種程度上就是模擬了這種多模態(tài)融合機制。

當(dāng)模型能夠理解“重物落地應(yīng)該發(fā)出低沉聲音”“玻璃破碎應(yīng)該伴隨清脆音效”時,它已經(jīng)在建立跨模態(tài)的因果關(guān)聯(lián)。這種能力遠(yuǎn)超單純的文本生成或圖像生成,已經(jīng)預(yù)示著模型正朝著AGI靠攏了。

還有一點,當(dāng)前AI研究的共識是,AGI最終需要體現(xiàn)在具身智能上。

原因很簡單,一個能夠在物理世界中行動的智能體,無論是機器人還是自動駕駛,都要求AI準(zhǔn)確預(yù)測物理世界的動態(tài)變化。

Seedance 2.0雖然是視頻生成模型,但它對物理規(guī)律的理解能力(重力、動量、碰撞、流體力學(xué))與具身智能所需的能力高度重合。

可以說,視頻生成是具身智能的“沙盒”。

模型在虛擬世界中學(xué)會了物理規(guī)律,未來可以遷移到真實世界的機器人控制中。而基于Seedance 2.0的那些格斗視頻,剛好集中體現(xiàn)了模型對力學(xué)、運動學(xué)、時序因果的綜合理解,這些都是具身智能的核心能力。

GPT、Claude等大語言模型雖然強大,但它們對物理世界的理解是間接的、基于文本描述的。它們可以告訴你“蘋果會掉下來”,但無法真正“看到”重力如何作用。

Seedance 2.0的突破在于,它通過視頻生成這一任務(wù),被迫學(xué)習(xí)物理世界的直接表征。

這使得它在通往AGI的路徑上比純語言或靜態(tài)圖像模型走得更遠(yuǎn),所以它的運行邏輯更接近人類“看到-理解-預(yù)測”的認(rèn)知閉環(huán)。

如果說語言模型是AGI的“左腦”(邏輯與符號),那么物理世界模型就是AGI的“右腦”(空間與直覺)。

Sora 2在靜態(tài)場景和慢節(jié)奏敘事上表現(xiàn)較好,但在快速動作場景存在明顯短板。籃球彈跳軌跡、水流形態(tài)、布料飄動呈現(xiàn)“夢幻感”而非“真實感”,慢鏡頭下尤為明顯。

角色快速位移(沖刺、跳躍、揮拳)時容易產(chǎn)生運動模糊過度或肢體變形,源于擴散模型處理時序劇烈變化的局限。

Sora 2 要生成單鏡頭,用戶拼接多個動作片段時,角色動作銜接、速度一致性難以保證。

格斗視頻需要“出招-閃避-反擊”的多回合結(jié)構(gòu),這是Sora 2的弱項。社交媒體上Sora 2生成的同類內(nèi)容常因“動作僵硬”“物理違和”被用戶批評。

字節(jié)在短視頻領(lǐng)域的數(shù)據(jù)積累可能是優(yōu)勢來源。

抖音每日處理數(shù)十億條視頻,這些數(shù)據(jù)幫助模型理解“什么樣的運動吸引眼球”“哪種節(jié)奏讓人持續(xù)觀看”。模型訓(xùn)練可能使用了大量真實武術(shù)、體育、舞蹈視頻作監(jiān)督信號。

03

字節(jié)能從Sora 2上吸取教訓(xùn)嗎?

OpenAI將 Sora 2 定位為“AI 版抖音”。首日10萬安裝(邀請制 iOS)、4天登頂美國App Store總榜、5天破100萬下載(快于 ChatGPT)。

但Appfigures數(shù)據(jù)顯示,Sora 2在60天內(nèi)的下載量出現(xiàn)斷崖式下滑。12月環(huán)比下降32%,1月環(huán)比大幅下降45%,降至約120萬次。

截至發(fā)稿,Sora 2目前已跌出美國App Store免費應(yīng)用總榜前100名。

Sora 2最大的戰(zhàn)略失誤是試圖復(fù)制抖音那套社區(qū)文化。

AI生成內(nèi)容天然缺乏真實人際關(guān)系,這是社交網(wǎng)絡(luò)的核心之一。用戶在抖音上刷到的是真實的人、真實的生活片段、真實的情感連接。而Sora 2生成的視頻,無論多么精美,本質(zhì)上都是算法的產(chǎn)物,缺乏社交網(wǎng)絡(luò)賴以生存的人際紐帶。

Seedance 2.0目前的做法更務(wù)實,嵌入剪映、即夢等成熟創(chuàng)作工具,作為“功能模塊”而非“獨立 App”。

將自己定位為創(chuàng)作者工具箱的一部分。用戶不是來“刷AI視頻”,而是來“用AI做視頻”。這個定位差異,決定了產(chǎn)品的生命周期。

Sora 2在版權(quán)上的搖擺暴露了西方監(jiān)管環(huán)境的困境。

上線初期,因缺乏嚴(yán)格管控,用戶曾可生成海綿寶寶、皮卡丘等知名IP角色的視頻,這雖在一定程度上有助于早期推廣,但引發(fā)了版權(quán)方的強烈反對。

面對壓力,OpenAI將版權(quán)使用規(guī)則從“默認(rèn)可選”改為“需明確授權(quán)”,也正是因為這種版權(quán)內(nèi)容的變更,導(dǎo)致Sora 2失去了最初病毒式傳播的動力源泉。

目前來看,Seedance 2.0另一大爆火的原因,是創(chuàng)作者利用AI生成了奧特曼、七龍珠等大量知名角色,但同樣存在版權(quán)風(fēng)險,比如下圖中就是趙本山和詹姆斯。

字節(jié)因真人素材參考能力引發(fā)爭議后,已緊急下線該功能。這說明字節(jié)在版權(quán)問題上采取了更謹(jǐn)慎的態(tài)度,試圖在技術(shù)能力與合規(guī)風(fēng)險之間找到平衡點。

但最重要的是,當(dāng)任何人都能在幾分鐘內(nèi)生成一段精美視頻,內(nèi)容本身就失去了稀缺性。用戶真正需要的不是“更多視頻”,而是“更有意義的表達(dá)”。

技術(shù)再強,如果不能回答“用戶為什么需要這個”的問題,最終都會淪為玩具。

AI生成的視頻雖然精美,但往往缺乏核心的情感內(nèi)核與持續(xù)的敘事價值。許多用戶在社交平臺上反饋,在最初的新鮮感褪去后,Sora 2生成的內(nèi)容逐漸趨同且無趣。

Seedance 2.0若想長期存活,需要回答一個問題:在AI讓視頻生成成本趨近于零的時代,你為用戶創(chuàng)造的核心價值是什么?是節(jié)省時間?是實現(xiàn)創(chuàng)意?還是建立身份認(rèn)同?

從目前的產(chǎn)品策略來看,字節(jié)選擇了“工具”而非“平臺”的路線。

但工具路線也有自己的挑戰(zhàn)。當(dāng)可靈、Sora、Veo都在提供類似能力時,用戶憑什么選擇 Seedance 2.0?答案可能不在技術(shù)本身,而在生態(tài)整合的深度。

字節(jié)擁有抖音、剪映、即夢的完整創(chuàng)作生態(tài),Seedance 2.0如果能與這些產(chǎn)品深度打通,形成從靈感到發(fā)布的閉環(huán),就能建立起其他競爭對手難以復(fù)制的護城河。

不過歸根結(jié)底,版權(quán)問題是永遠(yuǎn)不會消失的,技術(shù)能力的邊界也會不斷被競爭對手追平。真正決定Seedance 2.0命運的,是字節(jié)能否在爆火的窗口期內(nèi),將流量轉(zhuǎn)化為用戶習(xí)慣,將技術(shù)優(yōu)勢轉(zhuǎn)化為生態(tài)壁壘。

答案可能決定了它是成為字節(jié)的下一個抖音,還是下一個 Sora 2。

特別聲明:本文為合作媒體授權(quán)DoNews專欄轉(zhuǎn)載,文章版權(quán)歸原作者及原出處所有。文章系作者個人觀點,不代表DoNews專欄的立場,轉(zhuǎn)載請聯(lián)系原作者及原出處獲取授權(quán)。(有任何疑問都請聯(lián)系idonews@donews.com)

Seedance 2.0火出圈,意味著AGI又近了一步
掃描二維碼查看原文
分享自DoNews
Copyright ? DoNews 2000-2026 All Rights Reserved
蜀ICP備2024059877號-1