Runway AI Inc.今日發布其最先進的AI視頻生成模型,標志著影視制作工具競爭進入新階段。全新[Gen-4系統]首次實現多鏡頭間的角色與場景一致性——這項突破性能力此前長期困擾著AI視頻生成領域。
這家獲得谷歌、英偉達和Salesforce投資的紐約初創公司,已向所有付費用戶及企業客戶開放Gen-4,支持生成720p分辨率的5-10秒片段。此次發布恰逢OpenAI推出具備角色一致性的圖像生成功能后數日,后者因用戶瘋狂生成吉卜力風格圖像導致服務器過載,CEO薩姆·奧爾特曼戲稱"我們的GPU要熔化了"。
視覺連續性:AI影視制作的最后拼圖
角色一致性為OpenAI圖像功能帶來病毒式傳播,Runway能否在視頻領域復制這種成功?此前AI視頻的致命缺陷正在于——當角色面部在不同鏡頭間微妙變化,或背景元素無故消失時,人工痕跡便暴露無遺。
傳統AI生成器將每幀視為獨立創作任務,效果如同讓多位畫家在互不知情的情況下分別繪制電影單幀。而Runway Gen-4通過建立視覺元素的持久記憶庫,能從多角度渲染角色/物體/環境并保持核心特征不變。這不僅是技術升級,更意味著從生成視覺片段到講述完整故事的跨越。
"通過視覺參考結合指令,Gen-4允許用戶創建風格、主體、場景一致的圖像與視頻,實現敘事連貫性"
——Runway官方推文[2025.3.31]
為展示模型能力,Runway發布了多部Gen-4制作的短片:將真實動物融入紐約街景的《紐約動物園》,以及講述神秘花卉搜尋之旅的《尋花記》(制作周期不足一周)。
從面部動畫到世界模型:Runway的進化之路
Gen-4繼承了Runway此前技術積累:
2024年10月推出Act-One,支持通過手機視頻捕捉面部表情并遷移至AI角色
11月為Gen-3 Alpha Turbo添加3D攝像機控制功能
這種演進揭示Runway的戰略遠見——當競爭者聚焦單鏡頭質量時,它正構建完整的數字制片流程,其邏輯更貼近傳統影視制作:將表演、鏡頭語言和視覺連續性作為有機整體而非孤立技術難題。
百億級市場的生死競速
據財報顯示,Runway目標在新產品和API推動下實現年收入3億美元,目前正以40億美元估值進行新一輪融資。該公司已與獅門影業達成合作,基于其2萬部影視庫開發定制模型,并設立百萬美元電影基金資助AI電影制作。
但技術革新伴隨行業陣痛:2024年研究報告顯示,75%采用AI的制片公司已開始裁員或崗位合并,預計到2026年全美將超10萬娛樂業崗位受沖擊。
版權爭議如影隨形
與所有AI公司相同,Runway面臨訓練數據合法性質疑。藝術家訴訟指控其未經授權使用受版權保護作品,公司則以合理使用原則抗辯。爭議在OpenAI推出吉卜力風格生成功能后愈演愈烈——當AI能完美復刻宮崎駿耗費數十年打磨的視覺語言時,所謂"學習風格"與"復制創作"的界限已近乎消失。
工具已備,故事何在?
當營銷機構、教育內容創作者探索Gen-4如何簡化視頻生產時,核心問題已從技術能力轉向創意應用。對獨立制作人而言,這是獲得頂級特效的機遇;對傳統特效師來說,則意味著職業危機。
值得深思的是:技術限制從來不是阻礙好作品的主因。當創建電影只需參考圖像和文字提示時,最關鍵的問題將變成——在這個可以隨意言說的時代,什么才真正值得表達?
精選文章: