Runway Gen-3 Alpha 使用指南
Runway Gen-3 Alpha 是目前(2025年)市面上公认第一梯队的视频模型。
5分钟
2025-12-26
视频生成AI视频创意工具Runway
Runway Gen-3 Alpha 使用指南
Runway 是 AI 视频生成领域的先驱,其最新推出的 Gen-3 Alpha 模型在写实度、动态幅度和可控性上都达到了好莱坞特效级的水准。
1. Gen-3 Alpha 简介
Runway Gen-3 Alpha 是目前(2025年)市面上公认第一梯队的视频模型。
- 特点:擅长处理极其逼真的光影、复杂的流体运动以及连贯的人物动作。
- 时长:支持生成 5秒 或 10秒 的视频(可延长至 40秒+)。
- 入口:网页端 app.runwayml.com。
2. 核心功能操作
2.1 Text to Video (文生视频)
最基础的模式。
- Prompt 技巧:必须极度详细。Structure (结构) + Style (风格) + Action (动作)。
- Bad: "A cat running."
- Good: "Cinematic wide shot, low angle, a fluffy ginger cat sprinting across a wet cobblestone street in Tokyo at night, neon lights reflecting in puddles, motion blur, 4k highly detailed."
- Fixed Seed: 固定种子。如果在测试 Prompt,建议固定种子以便对比微调效果。
2.2 Image to Video (图生视频) - 最推荐
为了获得最佳的可控性,建议先用 Midjourney 生成一张完美的首帧图片,再上传到 Runway 让它动起来。
- First Frame: 上传首帧。
- Last Frame (新功能): 上传尾帧。你可以指定视频的开始和结束画面,Gen-3 会自动补全中间过程(Morphing)。
2.3 Motion Brush (运动笔刷)
这是 Gen-2/Gen-3 的杀手级功能。它允许你指定画面中局部区域的运动方式。
- 上传图片。
- 选择 Motion Brush 工具。
- 涂抹你想要动的部分(比如云朵、流水、人物的手)。
- 设置参数:Horizontal (水平移动), Vertical (垂直), Proximity (远近)。
- 例子:涂抹云朵,设置 Horizontal +3,云朵就会飘动,而下方的山峰保持静止。
3. 高级控制工具
3.1 Camera Control (运镜控制)
不再需要碰运气,像导演一样控制镜头。
- Zoom: 变焦 (In/Out)。
- Pan: 摇摄 (Left/Right/Up/Down)。
- Roll: 旋转镜头。
- Speed: 控制视频的动感速度。
3.2 Lip Sync (口型同步)
Runway 内置了音频驱动嘴型的功能。
- 选择一张人物正脸图。
- 上传一段语音或输入文字生成语音。
- 生成视频,人物会根据语音内容自动对口型说话。
4. 价格与限制
- Credits 制:生成视频消耗 Credits。1秒视频 ≈ 5 Credits (具体视套餐而定)。
- 版权:付费用户拥生成的视频商用版权。
- 建议:由于视频生成成本较高,建议先在“预览模式”或用 MJ 跑通构图后,再上 Gen-3 跑视频。
最后更新:2025-12