Stable Diffusion (WebUI) 入门教程
新手常混淆的概念:
5分钟
2025-12-26
图像生成AI绘画创意工具Stable
Stable Diffusion (WebUI) 入门教程
Stable Diffusion (SD) 是最著名的开源 AI 绘画模型。不同于 Midjourney 的闭源付费,SD 允许你在自己的电脑上免费部署、训练和无限生成,拥有极高的可玩性和控制力。
1. 核心概念:WebUI 与模型
新手常混淆的概念:
- Stable Diffusion (架构):底层的算法技术。
- Checkpoints (大模型/底模):如
SD 1.5,SDXL,Flux.1。决定了画风的基础(是二次元还是写实)。 - WebUI (操作界面):为了方便使用 SD,社区开发了图形界面。最著名的是 Automatic1111 (A1111) 和 ComfyUI。本次教程以最适合新手的 A1111 为主。
2. 本地部署 (Windows)
硬件要求:推荐 NVIDIA 显卡,显存 8GB 以上 (SDXL/Flux 推荐 12GB+)。
2.1 一键包 (推荐新手)
GitHub 上有很多整合包,最推荐的是 B站秋叶 (Aki) 的整合包。
- 下载整合包并解压。
- 点击“启动器.exe”。
- 它可以自动配置 Python 环境、Git,并提供一键更新和模型管理功能。
2.2 手动安装 (高阶)
需要安装 Python 3.10 和 Git。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
./webui-user.bat
3. WebUI 界面速览
界面主要分为三大块:
- 文生图 (txt2img):输入提示词生成图片。
- 图生图 (img2img):上传参考图,基于它生成新图。
- 后期处理 (Extras):图片高清放大。
关键参数详解
- Prompt (正向提示词):你想要什么。
1girl, high quality, masterpiece, blue hair - Negative Prompt (反向提示词):你不想要什么。
nsfw, low quality, bad anatomy, missing fingers - Sampler (采样器):决定生成过程的算法。推荐
DPM++ 2M Karras或Euler a。 - Steps (步数):一般 20-30 步即可。
- CFG Scale (提示词相关性):一般 7-9。过高会导致画面过拟合崩坏。
- Seed (种子):随机数种子。固定种子可以复现同一张图。
4. 模型资源 (Civitai)
Civitai (C站) 是全球最大的 SD 模型分享站。
- Checkpoint: 大模型,文件通常很大 (2GB - 6GB)。决定主画风。
- LoRA: 小型微调模型 (100MB 左右)。用于添加特定的人物、画风或服装。
- 使用方法:下载后放入
models/LoRA文件夹。在 Prompt 中触发<lora:name:0.8>。
- 使用方法:下载后放入
5. 进阶插件:ControlNet
ControlNet 是 SD 能够进入专业工作流的核心。它能精准控制生成的构图。
- Canny: 提取线稿,保持线条结构一致。
- OpenPose: 锁定人物姿势,生成指定动作的角色。
- Depth: 根据深度图控制前后景关系。
安装:在 WebUI 的 "Extensions" -> "Install from URL" 输入 ControlNet 仓库地址即可。
最后更新:2025-12