字节跳动近日正式推出视频生成模型Seedance 2.0,旗下AI应用豆包与即梦同步接入该技术。用户现已可通过豆包APP、电脑端、网页版及即梦全平台体验新功能,其中移动端支持真人形象数字分身生成,需完成录音录像校验后使用,而电脑端与网页版则明确禁止上传真实人脸素材。
该模型突破传统文字指令限制,支持图像、视频、音频多模态输入。用户可上传参考图设定画面风格,通过视频片段指定角色动作与镜头运动,甚至利用音频控制节奏氛围。这种"导演式"创作模式显著降低技术门槛,使内容生成更贴近自然表达逻辑。此前内测阶段,海外创作者对比发现,Seedance 2.0生成的视频在真实感与细节丰富度上远超同类产品,引发埃隆·马斯克在社交平台感叹技术迭代速度。
技术层面,Seedance 2.0采用稀疏架构设计,在统一多模态框架下实现训练与推理效率的双重提升。官方报告显示,模型具备强大的泛化能力,不仅能生成高质量音画同步内容,还支持视频编辑、时长扩展等复杂操作。在运动稳定性、指令遵循精度及画面美学表现等关键指标上,该模型均达到行业领先水平,尤其擅长处理专业级运镜组合与叙事节奏控制。
游戏行业资深从业者冯骥在实测后给予高度评价,认为其在多模态信息整合方面实现质的飞跃,堪称当前最先进的视频生成工具。海外用户为体验该技术,甚至出现研究申请中国手机号的热潮,侧面印证其国际影响力。目前,Seedance 2.0已开放全平台访问,标志着AI视频生成进入多模态交互新时代。












