Stable Diffusion ControlNet 是一个强大的工具,可以通过线稿、动作识别、深度信息等方式对生成的图像进行控制。在使用之前,请确保 ControlNet 设置下的路径与本地 Stable Diffusion 的路径同步。
基本流程
以下是 Stable Diffusion ControlNet 的基本流程:
点击 “Enable” 启用 ControlNet 功能。
- Preprocessor (预处理器)用于对输入图像进行预处理。如果输入图像已经符合预处理后的要求,请选择 “None”。例如,如果导入的图像已经是 OpenPose 需要的骨架图,那么 preprocessor 选择 “None” 即可。
- 在 “Weight” 下,可以调整 ControlNet 在图像合成中的影响权重,类似于在 prompt 中调整权重的方式。”Guidance Strength” 用来控制图像生成过程中 ControlNet 的影响比例,类似于 [x:y] 语法。
- “Invert Input Color” 表示启用反色模式,适用于白色背景的输入图片。
- “RGB to BGR” 表示将输入图像的色彩通道信息反转,即将 RGB 信息解析为 BGR 信息。这是因为 OpenCV 中使用的是 BGR 格式。该选项适用于输入图像是法线贴图的情况。
- “Low VRAM” 表示开启低显存优化,需要在启动参数中添加 “–lowvram”。
- “Guess Mode” 表示启用无提示词模式,需要在设置中启用基于 CFG 的引导。
- 在 “Model” 中选择要使用的解析模型,与输入图像或预处理器相匹配。请注意,预处理器可以为空,但模型不能为空。
可用预处理/模型
以下是可用的预处理/模型选项:
- canny:用于识别输入图像的边缘信息。
- depth:用于识别输入图像的深度信息。
- hed:用于识别输入图像的边缘信息,但边缘更柔和。
- mlsd:用于识别输入图像的边缘信息,是一种轻量级的边缘检测方法。对横平竖直的线条非常敏感,适用于室内图像的生成。
- normal:用于识别输入图像的法线信息。
- openpose:用于识别输入图像的动作信息。
同时,还可以使用 OpenPose Editor 插件自定义修改姿势,并导出为文生图或图生图。另外,scribble 和 fake_scribble 可以将输入图像作为线稿进行识别,如果线稿是白色背景,请务必勾选 “Invert Input Color”。
以上就是 Stable Diffusion ControlNet 的使用教程。希望对您有所帮助!
原创文章,作者:SD中文网,如若转载,请注明出处:https://www.stablediffusion-cn.com/sd/sd-use/550.html