字节刚刚发布了大家期待已久的豆包视频生成-Seaweed模型和豆包视频生成- PixelDance模型。
昨天做了一堆Seaweed模型的测试表现相当不错,支持各种风格提示词响应以及横竖多种比例(说你呢 Runway)。
目前已经火山引擎开启企业用户的邀请测试,在即梦开启小范围个人用户邀请测试。
很多人测试发现豆包视频模型一大优势是可以实现自然连贯的多主体复杂交互。
下面是Seaweed模型跟 Runway 和 Luma 的对比测试,综合结果比 Luma 要好很多,跟 Runway 各有优劣。
- 图生视频的时候画面稳定性很好,不会出现随着时间图片的风格或者色彩表现出现偏移的问题。
- 运动幅度应该是这几家最大的,可以实现非常激烈的运动。
- 人物或者动物的解剖形体部分表现很稳定,剧烈运动也不会很崩。
- 在水流以及云雾这类流体表现很好,不会有那种果冻感。
- 3D 一致性表现也很好。
- 在 2D 动漫高风格化的表现上比 Luma 和 Runway 也要好很多。
测试用的都是图生视频,提示词和图片都是一样的,期待尽快开放给更多人使用。