AI應(yīng)用正在提前過年。上周末,字節(jié)跳動帶來了暴打Sora的最新視頻生成模型Seedance2.0,隨后在社交媒體和資本市場都掀起了狂潮。尤其是字節(jié)跳動這次展示的應(yīng)用、引流能力,和前兩天的“紅包大戰(zhàn)”形成了鮮明對比,一時傳為笑料。
但是,考慮到今天阿里千問新一代基座模型Qwen3.5在HuggingFace的開源項目頁面曝光,可能即將發(fā)布,而前兩天快手Kling3.0在外網(wǎng)評價不輸Seedance2.0,以及DeepSeekV4一直被傳春節(jié)左右有可能發(fā)布,AI應(yīng)用的逐鹿顯然還沒結(jié)束,冷嘲熱諷容易翻車。
目光回到Seedance2.0,知名影視行業(yè)博主影視颶風(fēng)在2月9日凌晨發(fā)布了一期實測視頻,Seedance2.0展現(xiàn)了非常強大的一致性、運鏡能力,連他們也感慨,“有點兒恐怖了”。
受此影響,2月9日A股AI應(yīng)用和即夢概念股大漲,中文在線、掌閱科技、上海電影、博納影業(yè)、掌閱科技等漲停,昆侖萬維、萬興科技、視覺中國等大漲,港股MiniMax漲超10%,智譜暴漲40%,市值已接近A股科大訊飛。
不過,發(fā)布稍早兩天而且效果也同樣不錯的快手Kling3.0卻命運相反,快手今日股價開盤后跳水,收盤微跌。這就很有意思:
首先是市場看好的AI應(yīng)用股其實更傾向于掌握IP或者開發(fā)能力的公司,哪怕他們的實際產(chǎn)出不怎么樣,但有AI無法摧毀和撼動的東西,才能站穩(wěn)腳跟。其次,市場的關(guān)注度有限,目光給了Seedance2.0,競品的處境就稍為尷尬,但這種競爭也并沒有到你死我活的地步。
字節(jié)跳動是個很好的吹哨人,吸引了很多關(guān)注。它也很有野心,這次發(fā)布的產(chǎn)品介紹文檔標(biāo)題是:視頻 Seedance 2.0 正式上線!Kill the game(殺死比賽)。
能否殺死游戲是個未知數(shù),但AI應(yīng)用能力確實又被推進了一大步,焦慮和欣喜的人,都在增加。
一、生成質(zhì)量逼近100%可用
短視頻平臺上,唐三藏騎著白龍馬載著李知恩和滅霸對波,而滅霸嘴里喊的是瓦坎達forever。兩個俠女的AI武打現(xiàn)在行云流水,而你還可以把角色換成吳京、韓立、孫悟空或者奧特曼。
在Seedance 2.0之前,AI視頻最大的問題就是“抽卡游戲”。做過AI視頻的人都清楚,想用模型生成一段15秒的視頻,你的成功率可能不到20%——之前刷屏的不少AI大作,比如AI山海經(jīng),都是作者團隊從成百上千的視頻片段里隨機出來的,而且整體一致性還可能不強。
這也是AI短視頻要么比較短、要么比較簡潔抽象的原因。AI漫劇之類的產(chǎn)品做出了一定改善,但受限于模型能力,水平還是不一定夠。對一個商業(yè)項目來說,使用AI是為了降低的人影響,如果還需要更多人力去調(diào)整和篩選,那就是本末倒置。所以,穩(wěn)定性越強,AI的意義才越大。
海外平臺上有用戶感慨,雖然可靈很好用,但調(diào)用一次花掉了他3歐元。假設(shè)我們做一個15秒片段的API調(diào)用成本是15元,理論上做1分鐘廣告就需要4個片段60元。如果考慮到50%的廢片率,就得從8個或者更多細(xì)節(jié)片段里挑選合格內(nèi)容,最終成本就要數(shù)百元。這樣一來,商業(yè)化空間就很難推廣到大項目。
但Seedance 2.0就不一樣了。
從B 站、抖音和海外平臺多個一線創(chuàng)作者的測試反饋看,Seedance 2.0的可用率能夠穩(wěn)定在80%—90%,在影視颶風(fēng)的測試中,可以以更高的效率一次做十幾條來篩選。
如果從商業(yè)角度考量,我們可以認(rèn)為它的理論成本正在無限逼近真實成本。同樣一個項目,重復(fù)冗余支出將明顯減少。原因來自以下幾點:
第一,Seedance2.0實現(xiàn)了運鏡和分鏡工程化自動化,雖然依然由人工設(shè)計比較好,但對于一些模糊或者風(fēng)格固定的過場鏡頭,工作量有望明顯減少。
比如,“從全景推到XX位置特寫”這些提示詞變得可以省略,因為Seedance 2.0則可以根據(jù)劇情自動規(guī)劃鏡頭,從遠景到人物的切換再到動作視角的轉(zhuǎn)移,模型的“智力”提高了,“鏡頭語言”被固化進了模型本身。
第二,它真正做到了“全模態(tài)參考”。
在Seedance 2.0里,你可以同時給它最多9張圖片、3段視頻和3段音頻作為參考,用來指定動作、特效、運鏡風(fēng)格、人物外貌、場景氛圍甚至聲音效果。提示詞不再需要極端精細(xì),只要清楚表達意圖,模型就能在圖像、視頻、音頻這12個輸入之間完成對齊。
第三,Seedance 2.0采用雙分支擴散變換器架構(gòu),視覺和聽覺信號在同一維度進行深度交互,而不是先做無聲視頻再強行配上聲音。這讓口型、表情、語氣和背景環(huán)境噪聲之間的協(xié)調(diào)度大幅提升。
“時間”和“鏡頭切換”的語義被標(biāo)記進訓(xùn)練過程,多鏡頭序列在邏輯連貫性上顯著優(yōu)于傳統(tǒng)模型。用戶不再只能生成孤立的短片,而是可以一次性得到一個有起承轉(zhuǎn)合的完整段落。
視頻的工業(yè)門檻更高,成本結(jié)構(gòu)更復(fù)雜,但Seedance2.0就像在理解畫面的邏輯一樣。這有些類似世界模型的邏輯,只不過它是限定在視頻領(lǐng)域的,算是通用能力的一種增強。
所謂世界模型,是指AI通過內(nèi)部表征模擬外部物理環(huán)境動態(tài)的技術(shù),能預(yù)測未來狀態(tài)、理解因果關(guān)系和物體運作規(guī)律。
傳統(tǒng)的視頻生成是一種高級版的畫面補全,基于文本描述或靜態(tài)畫面,模型從訓(xùn)練數(shù)據(jù)中檢索和拼接出最可能的視覺模式,做到“看起來合理”,不過模型本身不知道為什么合理,只知道這樣做最符合數(shù)據(jù)的傾向。
而Seedance2.0在“下意識”的設(shè)計上更優(yōu)越,人的慣性、風(fēng)的吹向、打斗重心的轉(zhuǎn)移或者鏡頭視角的變化,甚至人物交流時的表情、語氣和周遭環(huán)境等細(xì)節(jié),其實都與這種“下意識”關(guān)聯(lián),也就是有對現(xiàn)實的映射,最后呈現(xiàn)的效果仿佛先思考了一遍現(xiàn)實情況里會是什么樣。這就是一種顯著的進步。
二、沒有對比就沒有傷害
技術(shù)之外,這款產(chǎn)品在資本市場掀起了不小的討論。第一個問題是,AI產(chǎn)品之間的競爭程度怎么樣?是此消彼長的嗎?
過去一年里,快手的核心AI敘事來自可靈(Kling),這款視頻模型在海外有不低的聲量,也創(chuàng)出過幾次流量奇跡,截至去年底的ARR達到2.4億美元,推動其在美國地區(qū)的流水收入上升,整體被賦予了數(shù)百億甚至千億級別的潛在市值空間。
這次Kling3.0一發(fā)布,也有不少海外博主光速提供了解讀。
但是Seedance 2.0上線后,動搖的心理出現(xiàn)了。
Seedance2.0官方披露,其生成2K視頻的速度比Kling等競爭對手快30%;在能力定位上,Sora側(cè)重物理真實感,Kling側(cè)重運動控制,而Seedance 2.0瞄準(zhǔn)的是“帶原生音頻的連貫多場景序列”。后兩者都能產(chǎn)出電影級畫面,但Seedance2.0更加便宜。
這很大可能與雙方背后公司的實力差距有關(guān)。從數(shù)據(jù)閉環(huán)來看,模型的持續(xù)進化依賴于數(shù)據(jù),而數(shù)據(jù)又分為前期預(yù)訓(xùn)練數(shù)據(jù)、后期用戶反饋數(shù)據(jù)等。雖然短視頻平臺都可以沉淀海量帶標(biāo)簽的數(shù)據(jù),但字節(jié)的內(nèi)循環(huán)體系——即夢、剪映、抖音創(chuàng)作者體系,強大而完善,Seedance 2.0獲取養(yǎng)料的速度會遠超任何單一應(yīng)用。
這有可能產(chǎn)生滾雪球效應(yīng),也就是模型質(zhì)量的差距會被訓(xùn)練時間和數(shù)據(jù)量逐漸放大。且抖音內(nèi)部本身依然在進行開發(fā)賽馬,抖音、豆包、即夢都在擴充AI能力,未來會不會產(chǎn)生聚變?誰也不知道。
另外,由于Seedance2.0走紅的時間恰好接著騰訊發(fā)紅包、阿里送奶茶,所以后面兩位也受到了一些非議,重點集中在用補貼換聲量、用激勵換參與這條路徑到底適不適合AI應(yīng)用。
移動互聯(lián)網(wǎng)時代反復(fù)驗證過的增長策略,能讓AI產(chǎn)品和戰(zhàn)略也通過積累用戶產(chǎn)生質(zhì)變嗎?
嚴(yán)格來說,通用AI助手和即夢這類生產(chǎn)力工具其實沒有對比的必要,但Seedance 2.0這次刷屏沒有紅包,沒有強制裂變,用戶自發(fā)制作和傳播成為主因,甚至還吸引了頂級博主的關(guān)注,產(chǎn)品本身成了最佳廣告,其傳播性價比顯然是值得思考的。
海外AI產(chǎn)品依然在2B上找商業(yè)化出口,因此給予國內(nèi)玩家的借鑒性不強。所以面向2C的AI產(chǎn)品仍然需要持續(xù)思考,是通過外在獎勵驅(qū)動一次性參與,還是通過內(nèi)在效率與樂趣驅(qū)動持續(xù)使用。前一種方式適合拉新,后一種方式才能決定真正的留存和商業(yè)化空間。
而這又會牽出另一個問題:視頻應(yīng)用后續(xù)的發(fā)展空間應(yīng)當(dāng)怎么看待?它往往處于非專業(yè)和高度專業(yè)之間的過渡地帶,用來制作大片尚有缺憾,但停留在AI短劇漫劇,似乎又大材小用。
如果說大廠主要提供生產(chǎn)力,那么該由誰在哪些領(lǐng)域應(yīng)用它們實現(xiàn)顛覆呢?就像大洋彼岸AI巨頭顛覆軟件SaaS行業(yè)一樣——我們似乎缺乏這樣故事規(guī)模夠大的標(biāo)的。
從小處出發(fā),可以確定的是,物理一致性、情緒表達、多鏡頭敘事上都追到同一水平線時,純技術(shù)差距被壓縮,真正的稀缺開始轉(zhuǎn)移到另外兩件事上——好故事和好審美。Seedance 2.0可以量產(chǎn)爆款審美和敘事能力,那么,它有沒有可能把原本內(nèi)容市場消失掉的一部分挽回,甚至創(chuàng)造一些增量?
這是A股公司登上舞臺的一個重要原因。
三、改造產(chǎn)業(yè)的速度加快了
一言以蔽之,Seedance 2.0利好創(chuàng)作,而如果把創(chuàng)作視為商業(yè)化的杠桿,那么誰有最大的創(chuàng)作力和可以變現(xiàn)的創(chuàng)作對象,誰就是最明確的受益者。
最先被看到的是過去幾個月靠流程工程吃飯的視頻/漫劇Agent。這個行業(yè)向上對接模型廠商,拿到大額包量的API折扣,向下封裝成SaaS或工具,對創(chuàng)作者按條計費。利潤來自中間的價差和對工作流的優(yōu)化——用工程手段幫用戶提效,彌補模型本身的不足。
當(dāng)模型自身的生成完成度、可控性、良率大幅提升后,作為“補課老師”的價值會被擠壓。用戶可以直接轉(zhuǎn)向模型,Agent的必要性將被削弱。
所以,單純承擔(dān)開發(fā)能力是不穩(wěn)定的,而生產(chǎn)工具,也隨時有可能被擁有充足開發(fā)能力的大廠“入侵”。
圍繞某一垂直場景,構(gòu)建強模板和資產(chǎn)庫,深耕審美與行業(yè)know-how,成為產(chǎn)品化玩家,才是最終的出路。不能只是批發(fā)API,還要有能開發(fā)的對象,只有擁有IP儲備、流量入口,以及將AI視頻真正嵌入生產(chǎn)管線能力的公司,才有資格談多模態(tài)時代的龍頭。
而今天大漲的AI應(yīng)用概念股,幾乎都能找到這樣的故事,盡管概念和現(xiàn)實是兩回事:
—— 上影前幾天發(fā)布了2026 AIGC精品短劇片單,且上影手握大量精品IP,上影制作與七貓文學(xué)等企業(yè)存在合作,有相關(guān)內(nèi)容開發(fā)計劃
—— 掌閱科技日前正式推出AI漫劇一站式生成平臺泡漫(PopoMint),為承制商提供超過10000個小說IP的同時,設(shè)計了對應(yīng)的分成機制。AI能力的提升,會直接促進IP開發(fā)
—— 算力企業(yè)(美利云)或者工具企業(yè)(萬興科技)也得到了市場關(guān)注,但它們的催化還要經(jīng)過內(nèi)容開發(fā)這一層
—— 至于影視行業(yè),由于電影等內(nèi)容的頹勢,幾乎可以說是有增量就算成功,否則每年只在春節(jié)檔等檔期集中打幾場仗,容錯率和爆款率都太低
要注意的是,由于視頻生成對算力需求依然巨大,所以它很難實現(xiàn)全面大制作的場面。面向?qū)I(yè)和半專業(yè)制作者,成本驟降和迭代速度的提升,可能會帶來兩個方向相反但同時發(fā)生的效應(yīng):
一邊是供應(yīng)端的雪球,內(nèi)容產(chǎn)能暴漲,試錯成本接近零,A/B測試和多版本創(chuàng)意成為常態(tài);另一邊是門檻的整體抬高,觀眾對畫面和節(jié)奏的期待被重新校準(zhǔn),形式的炫目很快貶值,敘事能力和IP勢能成為真正的分水嶺。
創(chuàng)作者可能是焦慮的,也可能是欣喜的。視頻模型曾經(jīng)就讓不少人感慨:職業(yè)生涯要被AI終結(jié)了。但在某個職業(yè)生涯因為AI結(jié)束的時候,意味著原本缺乏這類生產(chǎn)力的公司,其實找到了崛起的機會。
雖然A股不少AI應(yīng)用股純屬炒作范疇,但對于在相關(guān)方面有變現(xiàn)能力的公司來說,只要AI的能力越來越逼近傻瓜級,那么它們即便躺在地上,也會被風(fēng)吹起來。
工具的革命已經(jīng)發(fā)生,接下來輪到內(nèi)容和資本,重新適應(yīng)這個被輕輕推了一下的行業(yè)。
來源:松果財經(jīng)
特別聲明:本文為合作媒體授權(quán)DoNews專欄轉(zhuǎn)載,文章版權(quán)歸原作者及原出處所有。文章系作者個人觀點,不代表DoNews專欄的立場,轉(zhuǎn)載請聯(lián)系原作者及原出處獲取授權(quán)。(有任何疑問都請聯(lián)系idonews@donews.com)