• 1.摘要
  • 2.基本信息
  • 3.发展历史
  • 4.能力特点
  • 5.技术创新
  • 6.应用场景
  • 7.评测表现
  • 8.社会意义
  • 9.社会评价
  • 10.争议事件
  • 11.参考资料

Seedance2.0

字节跳动推出的AI视频生成模型

Seedance2.0是由字节跳动推出的AI视频生成模型,于2026年2月12日发布,已全面接入豆包和即梦产品,并上线火山方舟体验中心12

其可根据文本或图像创建电影级视频。它采用双分支扩散变换器架构,可同时生成视频和音频。只需编写详细的提示或上传一张图片,Seedance 2.0 即可在60秒内生成带有原生音频的多镜头序列视频。它能够根据单个提示自动生成多个相互关联的场景。AI会自动保持所有场景切换中角色、视觉风格和氛围的一致性,无需手动编辑3。与市场主流模型相比,Seedance2.0聚焦"具有原生音频的连贯多场景序列"制作4,通过原生多模态架构,把视觉与听觉信号在训练阶段深度融合,实现了音画同步5

基本信息

  • 外文名

    Seedance2.0

  • 类型

    AI视频生成模型

  • 发布时间

    2026年2月12日1

  • 所属公司

    字节跳动

  • 技术架构

    双分支扩散变换器架构3

发展历史

Seedance 2.0模型正式推出之前,央视春晚已将其深度用于多个节目的视觉制作环节6

2026年2月7日,字节跳动旗下AI视频生成模型Seedance2.0开始小范围内测7,凭借“文本/图片生成电影级视频”的突破性能力成为行业内外焦点8

2026年2月11日,字节跳动旗下AI助手豆包内已开启Seedance2.0的灰度测试9

2026年2月12日,Seedance 2.0正式发布,已全面接入豆包和即梦产品,并上线火山方舟体验中心12

能力特点

稳定呈现复杂运动和交互,真实还原物理规律

Seedance2.0能高保真地合成时序精密的复杂交互场景,同时,生成过程保持了对现实世界运动规律的遵循,避免了以往AI视频常见的物理谬误1

支持多模态“全能参考”,创作自由度大幅提升

Seedance2.0支持多模态全能参考,允许组合输入不同文本、图片、视频、音频。模型可精准理解多模态输入内容,并按指令要求参考其画面构图、镜头语言、动作节奏、音效特点等元素进行生成,甚至可以直接参考文字分镜内容,创作自由度大幅提升1

更强可控性,精准遵循生成和编辑指令

Seedance2.0视频生成的可控性也大幅提升。其指令遵循表现出色,即便面对包含大量角色互动和精细动作描述的复杂脚本,也能做到精准还原生成,并保持稳定的主体一致性。同时,模型还具备一定的编导思维,可自主规划镜头语言,并设计视觉呈现模版1

双声道音频能力,高仿真沉浸音效同步生成

Seedance2.0还升级了音频能力,集成双声道立体声技术,可实现高仿真、沉浸式的音效生成。模型支持背景音乐、环境音效或人物解说等音频多轨并行输出,精准对齐画面节奏1

全场景广泛适配,降低专业内容制作门槛

针对视频内容生产的多元化需求,Seedance 2.0展现出极高的场景适配性。无论是商业广告、影视特效,还是游戏动画、解说视频,模型均能提供高质量的生成效果1

技术创新

自分镜和自运镜

Seedance 2.0可以根据使用者描述的情节自动规划分镜和运镜。只需要告诉它故事是什么,它自己决定怎么拍。