文 / 梁添?
來源 / 節(jié)點財經(jīng)?
剛被“AI殺死SaaS”,引發(fā)全球資本市場軟件股震蕩的消息刷屏,這不,“AI顛覆影視工業(yè)”的論調(diào)又甚囂塵上,只不過這次的主角是中國公司——字節(jié)跳動于2月7日開啟灰度測試的,AI視頻生成模型Seedance2.0,迅速在行業(yè)內(nèi)外引發(fā)關(guān)注。
短短幾天內(nèi),Seedance 2.0 的測評內(nèi)容幾乎刷屏,社交平臺和技術(shù)社區(qū)充斥著對其能力的討論。游戲科學 CEO 馮驥甚至直言,這是“當前地表最強的視頻生成模型,沒有之一”。在海外平臺,相關(guān)演示視頻同樣引發(fā)熱議,不少網(wǎng)友用“insane”來形容其效果。
相比起Anthropic重挫軟件股Seedance 2.0則帶動傳媒板塊盤中漲勢擴大。2月10日,讀客文化、榮信文化20%漲停,光線傳媒等十余只個股跟漲。資本市場的敏銳嗅覺似乎在預示,這一次,AI對影視工業(yè)的改造,不再是空中樓閣。
為了體驗具體效果,我直接在小云雀app里使用了 Seedance 2.0,下面講的體驗也都基于這個平臺。
如果你是AI視頻的忠實擁躉,你會清楚,以往AI視頻往往更接近“一鏡到底”的效果,即便嘗試拆分鏡頭,也容易出現(xiàn)節(jié)奏失衡或畫面失真的問題。
而在 Seedance 2.0擺脫了早期視頻模型常見的固定機位輸出模式。
模型能夠根據(jù)用戶提供的Prompt,自行規(guī)劃鏡頭與節(jié)奏,創(chuàng)作者只需專注故事本身。
比如,官方展示的“黑衣人街頭逃亡”片段中,鏡頭不再是單調(diào)的平移,而是展現(xiàn)了一定難度的調(diào)度能力:從背后的推進跟拍,到平行移鏡,再到人物摔倒,水果掉落在地。從呈現(xiàn)結(jié)果看,模型仿佛是一位經(jīng)驗豐富的攝影師,能看懂物理世界。
為了驗證這一點,我并未直接使用復雜的官方 Prompt,而是用自然語言輸入了一個簡單指令:“一只布偶貓用爪子把一只兔子按倒在地上。 ”
盡管因為服務器爆滿,我足足排隊了 30 分鐘,這也側(cè)面印證了市場的火熱,但生成的 10秒視頻效果十分靈動,宛若實景拍攝。
你要是認真去逐幀截圖看,會發(fā)現(xiàn)細節(jié)也比較到位。布偶貓的尾巴的自然擺動,寵物身上的毛發(fā),十分細膩。而且兩個寵物的互動也十分自然,比我在幾個月前測評的另一款視頻模型效果好很多。
當然,如果你擔心ai生成的內(nèi)容風格會不喜歡,或者你想要特定的風格,你也可以給定圖片、視頻、音頻素材,并且艾特明白特定參考對象。只要意圖表達足夠清晰,模型在理解和整合不同參考信息時表現(xiàn)出較強的穩(wěn)定性。
過去你想創(chuàng)作一個內(nèi)容,或許得懂分鏡和運鏡,現(xiàn)在這些專業(yè)內(nèi)容直接交給AI就能完成,這種突破意味著,過去高度依賴分鏡師、導演和攝影團隊完成的前期拍攝規(guī)劃,正在被壓縮為一個創(chuàng)作者即可完成的流程。視頻內(nèi)容真真正正實現(xiàn)了平權(quán)。二、當聲音成為畫面的自然語言
傳統(tǒng)視頻模型由于生成過程中的隨機性,往往難以保證畫面與聲音之間的邏輯一致性。
Seedance 2.0 的另一個殺手锏在于"音畫協(xié)同"。
官方文檔提到,模型在訓練階段就強化了視聽融合。使得視頻生成不再只是畫面輸出,而是能夠同步生成相匹配的音效與配樂,在人物對白場景中也能較好地保持口型與情緒的一致。
在測試"ASMR 水晶刀切玫瑰"的場景時,我特意關(guān)注了聲音的細節(jié)。當?shù)度星腥牖ò甑乃查g,那細微的酥脆聲與畫面完全同步,沒有絲毫延遲。
在另一個“19世紀倫敦街頭”的案例中,蒸汽機車駛過時,不僅風吹起了女主的裙擺,嘈雜的人聲、車輪聲與風聲也隨之呼嘯而過。
在《節(jié)點財經(jīng)》看來,直接為創(chuàng)作者省去了后期音效制作環(huán)節(jié),讓生成的內(nèi)容直接具備了“成片”屬性??梢哉f,AI 視頻正在吞噬的并不只是剪輯或配音這樣的單一工種,而是開始覆蓋影視制作中多個原本分散的協(xié)作環(huán)節(jié)。
簡單的分鏡、鏡頭切換、音樂畫面協(xié)同,Seedance 2.0都能輕松拿捏,那么在特別豐富的場景中呢?Seedance 2.0的指令遵循能力又如何呢?
影視從業(yè)者或許再熟悉不過了,很多AI視頻,上一秒主角是長發(fā),下一秒可能就變成了短發(fā),或者一個人有三條胳膊之類,這種“變形”讓 AI 很難用于長內(nèi)容。
為此,我們增加了難度,來測評Seedance 2.0 在超多鏡頭下的“穩(wěn)定性”。
為了測試模型能力,我們參考官方提供的一組高難度“暗黑魔法”腳本,要求生成一段長達 15 秒、包含三個分鏡,包括仰拍、環(huán)繞、特寫的復雜視頻,甚至要求鏡頭在三個不同人物間快速切換。
鏡頭猛烈向前推近,伴隨著強烈的能量沖擊波!左側(cè)紅衣女將眼神銳利如刀,猛然拔出腰間長劍,劍身爆發(fā)出熾熱的火焰,她振臂高呼:“犯我疆土者,雖遠必誅!”。鏡頭圍繞中間的白衣男主和綠衣女主進行快速環(huán)繞俯沖,綠衣女主手中的法杖頂端寶石光芒大盛,地面上浮現(xiàn)出古老的魔法陣。右側(cè)金甲武將發(fā)出一聲震天怒吼,將巨斧重重砸在地面,激起一圈金色的能量漣漪,風云為之變色。背景天空中的流光變成巨大的火流星劃過,遠處的城市燃起熊熊烽火,整個畫面充滿了山雨欲來的緊張感和毀天滅地的戰(zhàn)斗氣勢。最后,鏡頭快速拉遠,定格在五位英雄共同釋放力量、準備迎接最終決戰(zhàn)的宏大史詩場面。
在我們看來這段腳本頗為復雜,達到了270字,作為對比,文章前面使用的腳本只有寥寥幾十字,當然,我們也直接采用了官方的圖片:
為了讓大家充分感受Seedance 2.0的運鏡能力,我們還從小云雀app找了很多現(xiàn)成的用戶案例供大家參考。
比如,大戰(zhàn)奧特曼,這畫面真的很像真人版奧特曼電視劇。
再比如,雨夜廢棄工廠打斗,宛若中國香港電影大片般地質(zhì)感。
再比如,一對多的打斗場面,動作十分絲滑。仿佛真人走進游戲世界。
可以看出,Seedance 2.0擁有十分成熟的運鏡能力,這也使得視頻生成正在從高度隨機的“抽卡階段”,進入到相對可控、可復現(xiàn)的生產(chǎn)階段,這也是 AI 視頻能否真正進入內(nèi)容產(chǎn)業(yè)鏈的關(guān)鍵前提。
從各路案例看下來,Seedance2.0最突出的就是運鏡和剪輯能力,以及人物和場景的一致性。
如果只是看視頻截圖,真的讓人分不清楚到底是AI、專業(yè)班底制作還是實拍,但是如果你看了很多官方、用戶素材的話,你會發(fā)現(xiàn)部分視頻的人物情感細膩度、文本的呈現(xiàn)、甚至部分內(nèi)容穩(wěn)定性上,仍有提升空間。
從這一點看,或許Seedance 2.0還不足以徹底改變影視界,但它的出現(xiàn),在于大規(guī)模降低了影像表達的門檻。
過去,影像是一種高度依賴組織、資金和工業(yè)體系的媒介。很多人有想法,但是沒有資格實現(xiàn)?,F(xiàn)在,工具開始把“想象”與“呈現(xiàn)”之間那道最厚的墻拆掉,讓個人第一次可以在不依附體系的情況下,把腦中的畫面變成可觀看的內(nèi)容。
這并不會立刻取代導演或影視工業(yè),但會悄然改變創(chuàng)作權(quán)力的分布方式,以及哪些人能夠持續(xù)進入表達的場域。這反而會逼迫行業(yè)重新回答一個問題,在工具不再稀缺的時代,什么樣的創(chuàng)作者才能不可替代。
從長遠角度看,無疑讓我們看到了AI重塑內(nèi)容行業(yè)的未來。正如馮驥所說的“kill the game”,更像是對技術(shù)水準的情緒化評價,而非對行業(yè)現(xiàn)實的直接判斷。
多模態(tài)正是2026年各家模廠的必爭之地,真正的變化,才剛剛開始,未來值得我們期待。
特別聲明:本文為合作媒體授權(quán)DoNews專欄轉(zhuǎn)載,文章版權(quán)歸原作者及原出處所有。文章系作者個人觀點,不代表DoNews專欄的立場,轉(zhuǎn)載請聯(lián)系原作者及原出處獲取授權(quán)。(有任何疑問都請聯(lián)系idonews@donews.com)