Stable Diffusion (WebUI) 入门教程

新手常混淆的概念:

5分钟
2025-12-26
图像生成AI绘画创意工具Stable

Stable Diffusion (WebUI) 入门教程

Stable Diffusion (SD) 是最著名的开源 AI 绘画模型。不同于 Midjourney 的闭源付费,SD 允许你在自己的电脑上免费部署、训练和无限生成,拥有极高的可玩性和控制力。


1. 核心概念:WebUI 与模型

新手常混淆的概念:

  • Stable Diffusion (架构):底层的算法技术。
  • Checkpoints (大模型/底模):如 SD 1.5, SDXL, Flux.1。决定了画风的基础(是二次元还是写实)。
  • WebUI (操作界面):为了方便使用 SD,社区开发了图形界面。最著名的是 Automatic1111 (A1111)ComfyUI。本次教程以最适合新手的 A1111 为主。

2. 本地部署 (Windows)

硬件要求:推荐 NVIDIA 显卡,显存 8GB 以上 (SDXL/Flux 推荐 12GB+)。

2.1 一键包 (推荐新手)

GitHub 上有很多整合包,最推荐的是 B站秋叶 (Aki) 的整合包。

  1. 下载整合包并解压。
  2. 点击“启动器.exe”。
  3. 它可以自动配置 Python 环境、Git,并提供一键更新和模型管理功能。

2.2 手动安装 (高阶)

需要安装 Python 3.10 和 Git。

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
./webui-user.bat

3. WebUI 界面速览

界面主要分为三大块:

  1. 文生图 (txt2img):输入提示词生成图片。
  2. 图生图 (img2img):上传参考图,基于它生成新图。
  3. 后期处理 (Extras):图片高清放大。

关键参数详解

  • Prompt (正向提示词):你想要什么。1girl, high quality, masterpiece, blue hair
  • Negative Prompt (反向提示词):你不想要什么。nsfw, low quality, bad anatomy, missing fingers
  • Sampler (采样器):决定生成过程的算法。推荐 DPM++ 2M KarrasEuler a
  • Steps (步数):一般 20-30 步即可。
  • CFG Scale (提示词相关性):一般 7-9。过高会导致画面过拟合崩坏。
  • Seed (种子):随机数种子。固定种子可以复现同一张图。

4. 模型资源 (Civitai)

Civitai (C站) 是全球最大的 SD 模型分享站。

  • Checkpoint: 大模型,文件通常很大 (2GB - 6GB)。决定主画风。
  • LoRA: 小型微调模型 (100MB 左右)。用于添加特定的人物、画风或服装。
    • 使用方法:下载后放入 models/LoRA 文件夹。在 Prompt 中触发 <lora:name:0.8>

5. 进阶插件:ControlNet

ControlNet 是 SD 能够进入专业工作流的核心。它能精准控制生成的构图。

  • Canny: 提取线稿,保持线条结构一致。
  • OpenPose: 锁定人物姿势,生成指定动作的角色。
  • Depth: 根据深度图控制前后景关系。

安装:在 WebUI 的 "Extensions" -> "Install from URL" 输入 ControlNet 仓库地址即可。


最后更新:2025-12

AI导航助手

Powered by DeepSeek

你好!我是AI导航助手,由DeepSeek驱动。

我可以帮你: • 推荐适合你的AI模型 • 解答AI相关问题 • 直接带你跳转到相关页面

试试点击下方问题,或直接输入你的问题!

快捷提问:

哪个AI模型最好?有免费的AI吗?写代码用哪个?API怎么接入?

点击按钮可直接跳转到相关页面