最低要求:
-16gb ram
-Nvidia Maxwell (GTX 7xx) 或更新的 GPU,至少 2gb vram-Linux
或 Windows 7/8/10+
-20GB 磁盘空间
--GUIDE--
第 1 步:安装 Git(页面)
-安装时,请确保选中“Windows 资源管理器集成 - > Git Bash”框
第 2 步:将 WebUI 存储库克隆到您想要的位置: - 右键单击任意位置并选择“Git Bash here”
-输入
(注意:
要更新,您需要做的就是在新制作的 webui 文件夹中键入)git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
git pull
第 3 步:下载您的首选型号:
- 官方稳定扩散1.4:Huggingface(需要注册)或HERE| (magnet)
- 外府扩散决赛:(SD 1.4 + 680k Danbooru图像,严重的动漫偏见)这里|(浮动32版)
- 外府扩散阿尔法:(SD 1.4 + 56k Danbooru图像,轻微的动漫偏见)这里|(镜像)| (magnet)
- Trinart2:(SD 1.4 接受动漫概念艺术/“Pixiv风格”训练)这里
- 有关其他型号,请参阅此页面(大多数处于测试阶段)
第 4 步:将您的.ckpt文件重命名为“model.ckpt”,并将其放在文件夹中
- 您可以在文件夹中拥有任意数量的模型,“model.ckpt”只是默认情况下将加载的模型/models/Stable-diffusion
步骤5:安装Python 3.10(Windows 7版本)(页面)
- 确保在安装时选择“添加到PATH”
第 6 步(可选):
这减少了 VRAM,并允许您以更大的分辨率或批量大小生成,原始生成速度
损失 <10%(对我来说,单个结果稍慢,但以 4 的批量大小生成使每个结果平均
快 25%) 建议大多数用户
这样做 -编辑
-更改为webui-user.bat
COMMANDLINE_ARGS=
COMMANDLINE_ARGS=--medvram
第 7 步:启动 ,以普通用户身份打开它,而不是以管理员身份打开它。webui-user.bat
- 耐心等待它安装依赖项并首次运行。
它可能看起来“卡住了”,但事实并非如此。最多可能需要 10-15 分钟。
大功告成!
用法
- 启动 webui 用户.bat
- 加载模型后,它应该为您提供一个 LAN 地址,例如“127.0.0.1:7860”
- 在浏览器中输入地址以进入 GUI 环境
提示:将鼠标悬停在 UI 元素上,以获取有关其功能的工具提示 - 要退出,请关闭 CMD 窗口
--NOVELAI SETUP--
为信息、测试和研究
自由提供服务 如果您喜欢您的结果,请考虑订阅
第 1 步:按照上面的
主要指南进行操作-(如果您只打算使用 NovelAI 模型,请忽略步骤 3 和 4) 通过在主稳定扩散 webui 文件夹中右键单击打开 git bash,
然后键入以确保您已更新git pull
第 2 步:下载种子客户端(如果您还没有
) -添加以下磁力链接:磁:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc
-取消选择除子文件夹(在 /stableckpt 下)之外的所有内容,以及
-(可选:
在子文件夹中选择所需的 .pt 虚拟网络(NAI 中默认不使用这些网络,但可以提供独特的结果/animefull-final-pruned
animevae.pt
/modules
)
第 3 步:完成后,像这样重命名您种子下载的以下文件:
animevae.pt
>> nai.vae.pt
config.yaml
>> nai.yaml
model.ckpt
>> nai.ckpt
第 4 步:将所有 3 个文件放入/stable-diffusion-webui/models/Stable-diffusion
步骤 5(可选):如果要默认启动 NovelAI,请在记事本中执行以下操作 -Edit
webui-user.bat 并添加 NAI .ckpt:
否则,您可以在 WebUI 下拉列表中选择它COMMANDLINE_ARGS=--ckpt nai.ckpt
超网络(可选):
使用超网络 .pt 文件可以对 NAI 输出进行独特的更改,具体取决于您使用
的 要启用它们:
- 如果文件夹尚不存在,请创建文件夹
-将您的.pt模块(动漫,aini,毛茸茸等)粘贴到文件夹中
- 重新加载网页用户界面
- 在“设置”选项卡中,在稳定扩散下选择您的 .pt 微调超网络并点击应用/stable-diffusion-webui/models/hypernetworks
hypernetworks
复制 NovelAI 默认值
通过执行以下操作,可以创建与 NovelAI 当前订阅服务相同的输出:
标准(欧拉)-将采样器设置为欧拉(不是欧拉 A)
-使用28个步骤
-将 CFG 比例设置为 11
-使用杰作,在所有正面提示的开头获得最佳质量
- 使用nsfw,低分辨率,不良解剖结构,坏手,文本,错误,手指缺失,额外的数字,更少的数字,裁剪,最差的质量,低质量,正常质量,jpeg伪像,签名,水印,用户名,模糊,艺术家姓名作为负面提示
(nsfw是可选的,并在网站上切换)
-在“设置”选项卡中,将忽略 CLIP 模型的最后一层更改为 2 并应用
欧拉-A 默认值
如果要复制 NovelAI Euler_a结果,则必须在执行上述默认值的同时执行以下操作:
- 在设置中的采样器参数下,将“ETA 噪声种子增量”设置为 31337
你应该准备好提示!
测试精度
测试您的 NovelAI 设置是否正常运行的最简单方法是尝试从 NovelAI 本身复制结果: 在本例中,我们将使用 Best girl: 采样器: 种子: CFG: 分辨率: 提示: 否定提示:
(仔细检查您完全复制了提示!
注意:如果您使用的是 lowvram 或 xformers 等优化,您可能会看到非常轻微的变化,但它仍然应该有 95% 的相似性 对不正确的
明日香进行故障排除Euler
2870305590
12
512x512
masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
小说AI资源
- 艺术风格标签
- NAI 表情/头发/服装(一些 nsfw)
- 提示转换器(将 NovelAI 提示语法转换为 WebUI)
- 表情符号提示
--RUNNING ON 4GB (And under!)--
这些参数对于想要制作更大图像或批量大小的普通用户也很有用!
通过一些修改可以大大减少VRAM的使用:
- 第 1 步:编辑
webui-user.bat
- 第 2 步:之后,输入所需的参数:示例:
COMMANDLINE_ARGS=
COMMANDLINE_ARGS=--medvram
- 如果您有 4GB VRAM 并且想要制作 512x512(或更大)的图像,
请使用 。--medvram
- 如果您有 2GB VRAM,
请使用--lowvram
如果您在其中任何一个上遇到“内存不足”错误,请添加到其他参数中--always-batch-cond-uncond
笔记:
- 如果您看到的是绿色/黑色屏幕而不是生成的图片,则您的卡不支持半精度浮点数(16xx 卡上的已知问题):
除了其他标志外,您还必须使用,并且模型将在VRAM
中占用更多空间 如果您使用的是 .vae 文件,则还必须添加--precision full --no-half
--no-half-vae
- 确保在浏览器中禁用硬件加速,并在出现内存不足错误时关闭任何可能占用VRAM的内容,并可能删除GFPGAN(如果有)
--ALTERNATE GUIDE (Conda)--
(如果传统安装不起作用,您可以尝试此方法)
- 按照上述主要指南中的步骤 1-4 进行操作
- 在这里下载Miniconda。下载迷你3
- 在默认位置安装Miniconda。为所有用户安装。
取消选中“将Miniconda注册为Python 3.9系统”,除非您愿意 - 打开蟒蛇提示符(miniconda3)
- 在Miniconda中,使用“cd”导航到下载的文件夹以跳转文件夹。
(或者只需键入“cd”后跟一个空格,然后将文件夹拖到 Anaconda 提示符中。/stable-diffusion-webui
- 键入以下命令以创建环境并安装必要的依赖项:
conda create --name qwe
(你可以随心所欲地命名它,而不是qwe)conda activate qwe
conda install python
conda install git
webui-user.bat
(注意:一开始似乎卡在了“安装火炬”上。这是正常的,应该需要 10-15 分钟)
现在应该可以使用了
用法
- 导航到米尼康达
/stable-diffusion-webui
- 类型
(每次您希望运行webui时,您都需要键入“conda activate qwe”)conda activate qwe
- 类型
webui-user.bat
- 加载模型后,它应该给你一个LAN地址,例如'127.0.0.1:7860'
在浏览器中输入地址以进入GUI环境
--LINUX INSTALLATION--
第 1 步:安装依赖项
- 基于 Debian:
sudo apt install wget git python3 python3-venv
- 基于红帽:
sudo dnf install wget git python3
- 基于拱形:
sudo pacman -S wget git python3
第 2 步:要在 中安装 ,请运行:/home/$(whoami)/stable-diffusion-webui/
bash <(wget -qO- https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh)
--LINKS--
- 丹布鲁标签组 (NAI/WD)
- 嵌入列表
- 嵌入集合 (兆丰)
- 超网络傻瓜书培训
- 文本反转指南(合作)
- SD 1.4 带图片的艺术家列表
- 前 500 名艺术家比较
- 搜索训练数据库
- 修复指南(NSFW)
- SD维基(中断)
- 沃尔迪的迷你维基
- 中央处理器指南 (Openvino)
- 修复提示
- 动漫载体的匿名指南(外福扩散)
- 预构建的Xformer
- 雷马克里升频器(风景) 棒棒糖升频器(拟人人物)
- 其他升频器模型(将升频器模型
放在 ESRGAN 文件夹中) - 来自中国的提示
- 使用提示生成器构建出色的美学提示
- 日语关键字
- 使用暗阅读器将您的 Gradio 主题更改为深色模式
- 非正式培训指南 (30GB vram+)
- 调试指南
- Python for Windows 7
- 稳定的扩散 WebUI 存储库
- 外福扩散拥抱脸页
--TROUBLESHOOTING--
- 确保您的文件夹路径没有空格
- 如果您在尝试使用该标志时遇到错误 launch.py 无法识别的参数,请尝试在 webui-user 中使用它的完整相对路径.bat
例如。--ckpt
COMMANDLINE_ARGS= --ckpt ./models/Stable-diffusion/nai.ckpt
- “我拉了更新,有些东西坏了!”
当然,由于引入了许多新功能,因此可能会有一些不稳定。按照这些说明还原到以前的版本 - 如果您在安装时遇到 winerror,或者您觉得损坏了某些内容并想从头开始重新安装,请删除以下目录:,
然后重试venv
repositories
- 如果您发现 Python 未找到错误,您可能需要在 webui-user 中手动设置您的 PATH.bat:
有关说明,请参阅下面“操作方法附加”下的“设置 Python PATH”(设置) - (img2img) 如果你得到运行时错误:张量的大小必须匹配,你需要改变输入图像的分辨率
- 确保您拥有可以运行的最新 CUDA 工具包和 GPU 驱动程序
- 如果你得到Torch无法使用GPU,你可能不得不下载Python 3.7。
- 如果在启动时发现“Git”未被识别为命令,请执行以下操作:
-编辑 launch.py
- 删除所有以 开头并保存的行git_clone
- 如果您的 Python 版本不在 PATH 中(或者如果另一个版本在 PATH 中),
请创建或修改 webui.settings.bat在文件夹中
添加行集 PYTHON=python 以表示 python 可执行文件的完整路径:
你可以为 python 执行此操作,但不能为 git 执行此操作。/stable-diffusion-webui
set PYTHON=B:\soft\Python310\python.exe
- 安装程序会创建一个 python 虚拟环境,因此如果您在安装之前有一个 python 的系统安装,则任何已安装的模块都不会影响您的系统安装。
- 要防止创建虚拟环境并使用系统python,请编辑webui.bat将set替换为
VENV_DIR=venv
set VENV_DIR=
- webui.bat 从文件安装需求,其中列出了专门兼容 Python 3.10.6 的模块版本。
如果您选择安装不同版本的 python,编辑 webui.bat设置REQS_FILE=requirements.txt而不是设置 REQS_FILE=requirements_versions.txt 可能会有所帮助(但我仍然建议您只使用推荐的 python 版本)。requirements_versions.txt
- 如果您获得绿色/黑色输出而不是生成的图片,则您的卡不支持半精度浮点数(16xx 卡上的已知问题):
-编辑网络用户界面用户.bat -修改第 6 行以及您要添加的任何其他标志 如果您使用的是 .vae 文件,则还必须添加不幸的是,该模型将在 VRAM 中占用更多空间
-
因此建议使用与它COMMANDLINE_ARGS=--precision full --no-half
--no-half-vae
--medvram
- 如果您的输出是混乱的彩虹混乱,则图像分辨率设置得太低
- CFG 水平过高也会引入颜色失真,您的 CFG 应该在 5-15 之间
- 在较旧的系统上,您可能需要更改为
cudatoolkit=11.3
cudatoolkit=9.0
- 确保您的安装位于 C: 驱动器上
- 本指南仅适用于 NVIDIA GPU,因为稳定的扩散需要 cuda 内核。
AMD 用户应尝试本指南
--TIPS--
- 您可以在 WebUI 中快速切换下载的 .ckpt 文件
- 与基础标清不同,NovelAI 可以原生生成高达 768x768 的图像而不会失真
- 否则,如果要在SD中生成明显大于512x512的图像,请确保选中高分辨率,修复以获得最佳效果。
如果不这样做,“克隆”失真可能会开始出现(多张脸、手臂等)+较低的去噪强度似乎效果最好(我用了 0.5) - 即使有可用的修复程序,仍然建议以 512x512 生成以获得最准确的结果,因为非 NovelAI 模型是在 512x 图像上训练的。
- 外福模型和普通的.ckpt各有利弊;
使用 waifu .ckpt 完成的非动漫宣传将偏向于动漫风格化,使逼真的面孔和人物更加困难,除非您将其与另一个模型合并 - 训练时不要使用 or 参数!结果会非常差
--medvram
--lowvram
- nai.yaml 可能不需要实现 1:1 与 NovelAI 结果
- 在关键字周围使用 ((( ))) 以增加其强度,使用 [[[ ]]] 以降低其强度
- 与其他采样器不同,k_euler_a可以从低步长产生高质量的结果。
- 将提示另存为样式允许您将提示另存为易于选择的输出。保存第一个样式后,“滚动”左侧将出现一个可供选择的框,允许您进行选择。可以通过访问
删除提示(如果您找到一个组合,可以生成非常好的图像并希望在各种主题上重复使用它,这将很有帮助。styles.csv
- 您可以将自己喜欢的结果从右侧的输出选项卡拖回img2img以进行进一步迭代
- k_euler_a和k_dpm_2_a采样器从相同的种子和提示
中给出截然不同,更复杂的结果,但是它们的结果在整个步骤中并不一致。其他采样器提供更可预测的线性细化和更多步进 - 每个生成结果的种子都在输出文件名中,如果要重新访问它
- 在img2img中使用相同的关键字生成图像会产生有趣的变体
- 建议提示在一个维度上至少为 512 像素,或在绝对最小
时为 384x384 正方形 任何较小的内容都会有严重的失真 - CLIP询问器占用大量空间(8GB),如果您不打算经常使用它,您可能不想选择它
- 在img2img中尝试低强度(0.3-0.4)+高CFG以获得有趣的输出
- 您可以在提示中使用日语 Unicode 字符
--HOWTO EXTRAS--
-----在中央处理器上运行-----可以在CPU而不是GPU上运行完整的WebUI,但是速度非常慢。
如果您想要更快但非常基本的CPU体验,请尝试Openvino版本
否则:
- 遵循主要指南
- 在 def prepare_environment下修改这 2 行,如下所示:
torch_command = os.environ.get('TORCH_COMMAND', "pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cpu")
commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test --precision full --no-half")
- 像往常一样启动webui用户.bat
-----推出不同的模型-----如果您安装了多个模型,并且想方便地从另一个模型启动,则可以进行另一个.bat
- 复制webui-user.bat并随心所欲地命名
- 之后,将所需的模型后跟添加到启动参数中:例如:您还可以在 webUI 中的设置选项卡下选择其他模型
COMMANDLINE_ARGS=
--ckpt
COMMANDLINE_ARGS=--ckpt wd-v1-2-full-emma.ckpt
-----更改 UI 默认值-----运行一次后,webui 目录中会出现一个文件:
根据自己的喜好编辑值,下次启动程序时将应用它们。ui-config.json
-----在线运行或通过局域网运行-----编辑 webui-user.bat并在 之后添加必要的参数以及您拥有的任何现有参数COMMANDLINE_ARGS=
- 用于使服务器侦听网络连接。这将允许本地网络上的设备访问 UI,如果配置端口转发,还允许 Internet 上的计算机访问。
--listen
- 使用选项联机运行。您将获得一个xxx.app.gradio链接。这是在协作中使用该程序的预期方式。
--share
- 用于使服务器侦听特定端口,即所需的端口。请记住,低于 1024 的所有端口都需要 root/管理员权限,因此建议使用 1024 以上的端口。默认为端口 7860(如果可用)。
--port xxxx
xxxx
- 用于添加共享身份验证
(可选)可以提供多组用户名和密码,以逗号分隔(user1:pw1、user2:pw2)。--share --gradio-auth username:password
-----设置蟒蛇路径-----有时,您可能需要手动将 Python 目录添加到 PATH 中:
- 找到你的Python安装
的位置,它应该是类似的东西C:\Users\you\AppData\Local\Programs\Python
- 打开文件夹并shift+右键单击
,然后单击“复制为路径”python.exe
- 编辑
粘贴您在 PYTHON= 之后复制的路径(保留引号),然后保存webui-user.bat
-----自动更新-----注意:这仅适用于曾经安装存储库的用户
您可以通过编辑
将脚本设置为自动更新 在“保存”上方
添加一行git clone
webui-user.bat
git pull
call webui.bat
-----X/Y 图-----尽管大多数功能使用起来相对不言自明,但 X/Y 绘图脚本可能特别难以理解,尤其是“S/R”选项
- S/R 提示 在整个提示中搜索逗号分隔值字段中的第一个条目,并在每次迭代时用值提示 S/R 字段中的一个条目替换第一个单词的所有匹配项。
- 当然,迭代也会发生在其他类型字段的每个值上。
- 关键字也会被迭代,因此当您的提示还具有“reddit gayfurs”时,使用“红色,白色,蓝色”之类的内容会导致问题。
-----设置不同的输出位置------将文本复制到此处并将其另存为,将其移动到您希望图像输出到的任何位置。
运行它,它将创建相应的子文件夹。完成后,您可以删除.bat。
- 转到UI的“设置”选项卡并相应地分配新文件位置。分配位置后,请确保点击“应用设置
” 如果您希望组织输出,还建议启用以下设置
-[x] 编写图像/网格时,使用从提示派生的名称创建一个目录output.bat
-----GFPGAN-----GFPGAN用于校正逼真的面部,它被主安装附带的CodeFormer 面部校正所取代,并且通常更好。
要安装 GFPGAN,请下载 GFPGANv1.3.pth 并将其放入主 webUI 目录
--PRUNING A .CKPT--
由于冗余的训练数据,“未修剪”模型最高可达 7GB,
但可以减少到 3.6gb 而不会降低质量,从而减少 RAM 使用和加载时间
(原始模型不会丢失,会制作新的修剪副本)
注意:您应该仅在运行webui-user后执行此操作.bat至少一次
- 将要修剪的 .ckpt 文件放在主文件夹中
/stable-diffusion-webui
- 复制 https://raw.githubusercontent.com/harubaru/waifu-diffusion/main/scripts/prune.py
删除第 6 行和第 8 行另
存为
主文件夹中的“所有文件”prune.py
/stable-diffusion-webui
- 将 prune.py 的最后一行编辑到您的 ckpt 名称:
例如。 并保存prune_it('wd-v1-2-full-emma.ckpt')
- 复制并保存用于启动 prune.py 的脚本 在这里 将其
保存为主文件夹
另存为“所有文件”
(这会在运行 prune.py 之前将 venv 和 torch 依赖项加载到内存中)prune.bat
/stable-diffusion-webui
- 运行修剪.bat
修剪过程可能需要几分钟
之后,您现在应该在正常修剪的 .ckpt 旁边有一个修剪过的 .ckpt
--SAFE UPDATING--
AUTOMATIC1111 存储库就是我们所说的前沿,这意味着尽管新功能的添加速度很快,但随之而来的是新错误的情况并
不少见。
好消息是,如果出现问题,git pull 更新是可逆的
以下是在不冒险的情况下进行更新的方法:
- 在你的主稳定扩散文件夹中打开一个 git bash,在
- 输入以获取当前版本的哈希值。写下来
它应该是一个 7 个字符的字符串,例如“cc58036”git rev-parse --short HEAD
- 通过键入正常更新
git pull
如果最新版本工作正常,那就太好了!
如果您需要还原,您所要做的就是键入后跟以前的版本哈希,
例如。git checkout
git checkout 7edd58d
--OUTPAINTING--
(9/17) webUI 中添加了一个新的和改进的外画脚本!
确保使用,以便您可以更新到最新版本
要使用,请转到img2img,然后从脚本下拉菜单
中选择“外画mk2” 推荐参数 (需要进一步测试)
步数:85-100
采样器:欧拉
CFG 刻度:7.5
降噪强度:0.8
宽度:与源图像
相同 高度:与源图像
相同 要扩展的像素: 128-256
遮罩模糊:10-25 衰减指数:1-2
颜色变化:0.05
提示git pull
- 确保宽度和高度与源图像分辨率相同或接近,
否则外画结果将不连贯 - 不要被这些参数所束缚,强烈建议进行调整,
它们只是通过几分钟的测试对我最有效的粗略近似值 - 蒙版模糊程度越高,效果往往越“无缝”(在一定程度上),
但如果太高,就会发生变形失真
--W7 HELP--
在 Windows 7 上,尝试遵循本指南时,您可能会收到“api-ms-win-core-path-l1-1-0.dll 丢失”作为错误。
这是因为许多现代程序和框架需要仅在较新版本的 Windows 中存在的系统文件。
幸运的是,它已被向后移植以与W7兼容,并且可以下载 这里 (Github页面)
将x86.dll压缩并复制到其中,将x64.dll复制到并重新启动,那么您应该很高兴
如果您没有收到该错误,则无需执行此操作。C:\Windows\SysWOW64
C:\Windows\System32
--MISC--
--旧模型--
6月份泄露的原始v1.3模型可以在这里下载: https://drinkordiecdn.lol/sd-v1-3-full-ema.ckpt
备份下载: https://download1980.mediafire.com/3nu6nlhy92ag/wnlyj8vikn2kpzn/sd-v1-3-full-ema.ckpt
洪流磁铁:
https://rentry.co/6gocs
--旧指南--
伏地指南前 目录 (9/15) https://rentry.org/voldyold
原始的 hlky 指南(自 9/8/22 起替换)在这里: https://rentry.org/GUItard
日语 hlky 指南 https://news.livedoor.com/article/detail/22794512/
原始指南(截至 8/25/22 被替换)在这里: https://rentry.org/kretard
评论