Runway Gen-3 Alpha 使用指南

Runway Gen-3 Alpha 是目前(2025年)市面上公认第一梯队的视频模型。

5分钟
2025-12-26
视频生成AI视频创意工具Runway

Runway Gen-3 Alpha 使用指南

Runway 是 AI 视频生成领域的先驱,其最新推出的 Gen-3 Alpha 模型在写实度、动态幅度和可控性上都达到了好莱坞特效级的水准。


1. Gen-3 Alpha 简介

Runway Gen-3 Alpha 是目前(2025年)市面上公认第一梯队的视频模型。

  • 特点:擅长处理极其逼真的光影、复杂的流体运动以及连贯的人物动作。
  • 时长:支持生成 5秒 或 10秒 的视频(可延长至 40秒+)。
  • 入口:网页端 app.runwayml.com

2. 核心功能操作

2.1 Text to Video (文生视频)

最基础的模式。

  • Prompt 技巧:必须极度详细。Structure (结构) + Style (风格) + Action (动作)。
    • Bad: "A cat running."
    • Good: "Cinematic wide shot, low angle, a fluffy ginger cat sprinting across a wet cobblestone street in Tokyo at night, neon lights reflecting in puddles, motion blur, 4k highly detailed."
  • Fixed Seed: 固定种子。如果在测试 Prompt,建议固定种子以便对比微调效果。

2.2 Image to Video (图生视频) - 最推荐

为了获得最佳的可控性,建议先用 Midjourney 生成一张完美的首帧图片,再上传到 Runway 让它动起来。

  • First Frame: 上传首帧。
  • Last Frame (新功能): 上传尾帧。你可以指定视频的开始和结束画面,Gen-3 会自动补全中间过程(Morphing)。

2.3 Motion Brush (运动笔刷)

这是 Gen-2/Gen-3 的杀手级功能。它允许你指定画面中局部区域的运动方式。

  1. 上传图片。
  2. 选择 Motion Brush 工具。
  3. 涂抹你想要动的部分(比如云朵、流水、人物的手)。
  4. 设置参数:Horizontal (水平移动), Vertical (垂直), Proximity (远近)。
    • 例子:涂抹云朵,设置 Horizontal +3,云朵就会飘动,而下方的山峰保持静止。

3. 高级控制工具

3.1 Camera Control (运镜控制)

不再需要碰运气,像导演一样控制镜头。

  • Zoom: 变焦 (In/Out)。
  • Pan: 摇摄 (Left/Right/Up/Down)。
  • Roll: 旋转镜头。
  • Speed: 控制视频的动感速度。

3.2 Lip Sync (口型同步)

Runway 内置了音频驱动嘴型的功能。

  1. 选择一张人物正脸图。
  2. 上传一段语音或输入文字生成语音。
  3. 生成视频,人物会根据语音内容自动对口型说话。

4. 价格与限制

  • Credits 制:生成视频消耗 Credits。1秒视频 ≈ 5 Credits (具体视套餐而定)。
  • 版权:付费用户拥生成的视频商用版权。
  • 建议:由于视频生成成本较高,建议先在“预览模式”或用 MJ 跑通构图后,再上 Gen-3 跑视频。

最后更新:2025-12

AI导航助手

Powered by DeepSeek

你好!我是AI导航助手,由DeepSeek驱动。

我可以帮你: • 推荐适合你的AI模型 • 解答AI相关问题 • 直接带你跳转到相关页面

试试点击下方问题,或直接输入你的问题!

快捷提问:

哪个AI模型最好?有免费的AI吗?写代码用哪个?API怎么接入?

点击按钮可直接跳转到相关页面