视频模型
Armox 的视频模型可以把文本描述与图像转化为动态的视频内容。从短片到更具电影感的作品,这些模型能把你的想法带到屏幕上。
概览
视频模型可以:
- 文本转视频 — 从文本描述生成视频
- 图像转视频 — 让静态图像动起来
- 运动控制 — 指定动作与镜头运动
- 音频生成 — 部分模型支持原生音频
- 多镜头剪辑 — 生成连贯的分镜序列
可用的视频模型
| 模型 | 提供商 | 成本 | 时长 | 最适合 |
|---|---|---|---|---|
| Kling V2.5 Turbo Pro | Kuaishou | 1,000 credits | 5-10s | 电影级质量 |
| Kling 2.6 Pro | Kuaishou | 1,200 credits | 5-10s | 原生音频 |
| Veo 3.1 | 4,000 credits | 4-8s | 顶级质量 | |
| Veo 3.1 Fast | 1,500 credits | 4-8s | 快速生成 | |
| Seedance 1 Pro | ByteDance | 1,000 credits | 2-12s | 更长视频 |
| Seedance 1 Pro Fast | ByteDance | 500 credits | 2-12s | 预算之选 |
| Seedance 1 Lite | ByteDance | 300 credits | 2-10s | 舞蹈/动作 |
| Wan 2.6 I2V | Wan | 1,000 credits | 5-15s | 音频同步 |
| Wan 2.6 T2V | Wan | 1,000 credits | 5-15s | 文本转视频 |
| Sora 2 Pro | OpenAI | 4,000 credits | 4-12s | 顶级质量 |
| Sora 2 | OpenAI | 2,000 credits | 4-12s | 高质量 |
| Hailuo 2.3 | MiniMax | 1,120 credits | 6-10s | 提示词优化 |
| Hailuo 2.3 Fast | MiniMax | 600 credits | 6-10s | 快速生成 |
| Video-01 Director | MiniMax | 1,000 credits | Variable | 镜头控制 |
| Gen4 Aleph | Runway | 1,000 credits | 5s | 视频编辑 |
连接颜色
在 Armox Canvas 中,视频连接使用 绿色 的句柄与连线:
- 输入句柄:节点左侧的绿色圆点
- 输出句柄:节点右侧的绿色圆点
- 连接边:连接节点的绿色连线
常见设置
Aspect Ratio
- 16:9 — 横屏(YouTube、演示)
- 9:16 — 竖屏(TikTok、Reels、Stories)
- 1:1 — 方形(Instagram feed)
Duration
大多数模型支持 5-10 秒片段;部分模型提供更长时长。
Resolution
- 720p — 标准质量,更快
- 1080p — 高质量,推荐
- 4K — 最高质量(部分模型支持)
如何选择合适的模型
质量拉满
- Veo 3.1(4,000 credits)— Google 的最佳
- Sora 2 Pro(4,000 credits)— OpenAI 的高端方案
- Kling 2.6 Pro(1,200 credits)— 音频表现优秀
速度与性价比
- Seedance 1 Pro Fast(500 credits)— 平衡之选
- Hailuo 2.3 Fast(600 credits)— 更快出片
- Seedance 1 Lite(300 credits)— 更省预算
需要音频
- Kling 2.6 Pro — 原生音频生成
- Veo 3.1 — 支持音频
- Wan 2.6 models — 音频同步
图像动画
- Wan 2.6 I2V — 图像转视频专家
- Kling models — 图像动画很强
- Seedance models — 动作一致性好
最佳实践
- 从短时长开始 — 先验证概念
- 使用负向提示词 — 避免不想要的元素
- 描述运动 — 对动作越具体越好
- 考虑音频需求 — 需要音频就选支持音频的模型
- 让比例匹配平台 — 社媒用 9:16,YouTube 用 16:9
下一步
查看各个模型的单独文档,了解详细设置与用例。