新版NovelAI人工智能绘画官方原版一键部署教程(保姆级)

MoMo 2022年10月30日20:32:45
评论
2,576

最低要求:

-16gb ram
-Nvidia Maxwell (GTX 7xx) 或更新的 GPU,至少 2gb vram-Linux
或 Windows 7/8/10+
-20GB 磁盘空间

 

--GUIDE--

第 1 步:安装 Git(页面)
-安装时,请确保选中“Windows 资源管理器集成 - > Git Bash”框

第 2 步:将 WebUI 存储库克隆到您想要的位置: - 右键单击任意位置并选择“Git Bash here”
-输入
(注意:
更新,您需要做的就是在新制作的 webui 文件夹中键入)git clone https://github.com/AUTOMATIC1111/stable-diffusion-webuigit pull

第 3 步:下载您的首选型号:

第 4 步:将您的.ckpt文件重命名为“model.ckpt”,并将其放在文件夹
您可以在文件夹中拥有任意数量的模型,“model.ckpt”只是默认情况下将加载的模型/models/Stable-diffusion

步骤5:安装Python 3.10(Windows 7版本)(页面)
- 确保在安装时选择“添加到PATH”

第 6 步(可选):
这减少了 VRAM,并允许您以更大的分辨率或批量大小生成,原始生成速度
损失 <10%(对我来说,单个结果稍慢,但以 4 的批量大小生成使每个结果平均
快 25%) 建议大多数用户
这样做 -编辑
-更改为webui-user.batCOMMANDLINE_ARGS=COMMANDLINE_ARGS=--medvram

第 7 步:启动 ,以普通用户身份打开它,而不是管理员身份打开它。webui-user.bat

  • 耐心等待它安装依赖项并首次运行。
    它可能看起来“卡住了”,但事实并非如此。最多可能需要 10-15 分钟。
    大功告成!

用法

  • 启动 webui 用户.bat
  • 加载模型后,它应该为您提供一个 LAN 地址,例如“127.0.0.1:7860”
  • 在浏览器中输入地址以进入 GUI 环境
    提示:将鼠标悬停在 UI 元素上,以获取有关其功能的工具提示
  • 要退出,请关闭 CMD 窗口

--NOVELAI SETUP--

为信息、测试和研究
自由提供服务 如果您喜欢您的结果,请考虑订阅

第 1 步:按照上面的
主要指南进行操作-(如果您打算使用 NovelAI 模型,请忽略步骤 3 和 4) 通过在主稳定扩散 webui 文件夹中右键单击打开 git bash,
然后键入以确保您已更新git pull

第 2 步:下载种子客户端(如果您还没有
) -添加以下磁力链接:磁:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc
-取消选择除子文件夹(在 /stableckpt 下)之外的所有内容,以及
-(可选:
在子文件夹中选择所需的 .pt 虚拟网络(NAI 中默认不使用这些网络,但可以提供独特的结果/animefull-final-prunedanimevae.pt/modules)

第 3 步:完成后,像这样重命名您种子下载的以下文件:
animevae.pt >> nai.vae.pt
config.yaml >> nai.yaml
model.ckpt>> nai.ckpt

第 4 步:将所有 3 个文件放入/stable-diffusion-webui/models/Stable-diffusion

步骤 5(可选):如果要默认启动 NovelAI,请在记事本中执行以下操作 -Edit
webui-user.bat 并添加 NAI .ckpt:

否则,您可以在 WebUI 下拉列表中选择它COMMANDLINE_ARGS=--ckpt nai.ckpt

超网络(可选):
使用超网络 .pt 文件可以对 NAI 输出进行独特的更改,具体取决于您使用
的 要启用它们:
- 如果文件夹尚不存在,请创建文件夹
-将您的.pt模块(动漫,aini,毛茸茸等)粘贴到文件夹中
- 重新加载网页用户界面
- 在“设置”选项卡中,在稳定扩散下选择您的 .pt 微调超网络并点击应用/stable-diffusion-webui/models/hypernetworkshypernetworks

复制 NovelAI 默认值

通过执行以下操作,可以创建与 NovelAI 当前订阅服务相同的输出:

标准(欧拉)-将采样器设置为欧拉(不是欧拉 A

-使用28个步骤

-将 CFG 比例设置为 11

-使用杰作,在所有正面提示的开头获得最佳质量

- 使用nsfw,低分辨率,不良解剖结构,坏手,文本,错误,手指缺失,额外的数字,更少的数字,裁剪,最差的质量,低质量,正常质量,jpeg伪像,签名,水印,用户名,模糊,艺术家姓名作为负面提示
(nsfw是可选的,并在网站上切换)

-在“设置”选项卡中,将忽略 CLIP 模型的最后一层更改为 2 并应用

欧拉-A 默认值
如果要复制 NovelAI Euler_a结果,则必须在执行上述默认值的同时执行以下操作:
- 在设置中的采样器参数下,将“ETA 噪声种子增量”设置为 31337

你应该准备好提示!

测试精度

测试您的 NovelAI 设置是否正常运行的最简单方法是尝试从 NovelAI 本身复制结果: 在本例中,我们将使用 Best girl: 采样器: 种子: CFG: 分辨率: 提示: 否定提示

新版NovelAI人工智能绘画官方原版一键部署教程(保姆级)

(仔细检查您完全复制了提示
注意:如果您使用的是 lowvram 或 xformers 等优化,您可能会看到非常轻微的变化,但它仍然应该有 95% 的相似性 对不正确的
明日香进行故障排除Euler287030559012512x512masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chairlowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name

小说AI资源

--RUNNING ON 4GB (And under!)--

这些参数对于想要制作更大图像或批量大小的普通用户也很有用!
通过一些修改可以大大减少VRAM的使用:

  • 第 1 步:编辑webui-user.bat
  • 第 2 步:之后,输入所需的参数:示例:
    COMMANDLINE_ARGS= COMMANDLINE_ARGS=--medvram
  • 如果您有 4GB VRAM 并且想要制作 512x512(或更大)的图像,
    请使用 。--medvram
  • 如果您有 2GB VRAM,
    请使用--lowvram

如果您在其中任何一个上遇到“内存不足”错误,请添加到其他参数中--always-batch-cond-uncond

笔记:

  • 如果您看到的是绿色/黑色屏幕而不是生成的图片,则您的卡不支持半精度浮点数(16xx 卡上的已知问题):
    除了其他标志外,您还必须使用,并且模型将在VRAM
    中占用更多空间 如果您使用的是 .vae 文件,则还必须添加--precision full --no-half--no-half-vae
  • 确保在浏览器中禁用硬件加速,并在出现内存不足错误时关闭任何可能占用VRAM的内容,并可能删除GFPGAN(如果有)

--ALTERNATE GUIDE (Conda)--

(如果传统安装不起作用,您可以尝试此方法)

  • 按照上述主要指南中的步骤 1-4 进行操作
  • 在这里下载Miniconda。下载迷你3
  • 在默认位置安装Miniconda。为所有用户安装。
    取消选中“将Miniconda注册为Python 3.9系统”,除非您愿意
  • 打开蟒蛇提示符(miniconda3)
  • 在Miniconda中,使用“cd”导航到下载的文件夹以跳转文件夹。
    (或者只需键入“cd”后跟一个空格,然后将文件夹拖到 Anaconda 提示符中。/stable-diffusion-webui
  • 键入以下命令以创建环境并安装必要的依赖项:
  • conda create --name qwe
    (你可以随心所欲地命名它,而不是qwe)
  • conda activate qwe
  • conda install python
  • conda install git
  • webui-user.bat
    (注意:一开始似乎卡在了“安装火炬”上。这是正常的,应该需要 10-15 分钟)
    现在应该可以使用

用法

  • 导航到米尼康达/stable-diffusion-webui
  • 类型
    (每次您希望运行webui时,您都需要键入“conda activate qwe”)conda activate qwe
  • 类型webui-user.bat
  • 加载模型后,它应该给你一个LAN地址,例如'127.0.0.1:7860'
    在浏览器中输入地址以进入GUI环境

--LINUX INSTALLATION--

第 1 步:安装依赖项

  • 基于 Debian:
    sudo apt install wget git python3 python3-venv
  • 基于红帽:
    sudo dnf install wget git python3
  • 基于拱形:
    sudo pacman -S wget git python3

第 2 步:要在 中安装 ,请运行:/home/$(whoami)/stable-diffusion-webui/
bash <(wget -qO- https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh)

--TROUBLESHOOTING--

  • 确保您的文件夹路径没有空格
  • 如果您在尝试使用该标志时遇到错误 launch.py 无法识别的参数,请尝试在 webui-user 中使用它的完整相对路径.bat
    例如。--ckptCOMMANDLINE_ARGS= --ckpt ./models/Stable-diffusion/nai.ckpt
  • “我拉了更新,有些东西坏了!”
    当然,由于引入了许多新功能,因此可能会有一些不稳定。按照这些说明还原到以前的版本
  • 如果您在安装时遇到 winerror,或者您觉得损坏了某些内容并想从头开始重新安装,请删除以下目录:,
    然后重试venvrepositories
  • 如果您发现 Python 未找到错误,您可能需要在 webui-user 中手动设置您的 PATH.bat:
    有关说明,请参阅下面“操作方法附加”下的“设置 Python PATH”(设置)
  • (img2img) 如果你得到运行时错误:张量的大小必须匹配,你需要改变输入图像的分辨率
  • 确保您拥有可以运行的最新 CUDA 工具包和 GPU 驱动程序
  • 如果你得到Torch无法使用GPU,你可能不得不下载Python 3.7
  • 如果在启动时发现“Git”未被识别为命令,请执行以下操作:
    -编辑 launch.py
    - 删除所有以 开头并保存的行git_clone
  • 如果您的 Python 版本不在 PATH 中(或者如果另一个版本在 PATH 中),
    请创建或修改 webui.settings.bat在文件夹中
    添加行集 PYTHON=python 以表示 python 可执行文件的完整路径:
    你可以为 python 执行此操作,但不能为 git 执行此操作。/stable-diffusion-webuiset PYTHON=B:\soft\Python310\python.exe
  • 安装程序会创建一个 python 虚拟环境,因此如果您在安装之前有一个 python 的系统安装,则任何已安装的模块都不会影响您的系统安装。
  • 要防止创建虚拟环境并使用系统python,请编辑webui.bat将set替换为VENV_DIR=venvset VENV_DIR=
  • webui.bat 从文件安装需求,其中列出了专门兼容 Python 3.10.6 的模块版本。
    如果您选择安装不同版本的 python,编辑 webui.bat设置REQS_FILE=requirements.txt而不是设置 REQS_FILE=requirements_versions.txt 可能会有所帮助(但我仍然建议您只使用推荐的 python 版本)。requirements_versions.txt
  • 如果您获得绿色/黑色输出而不是生成的图片,则您的卡不支持半精度浮点数(16xx 卡上的已知问题):
    -编辑网络用户界面用户.bat -修改第 6 行以及您要添加的任何其他标志 如果您使用的是 .vae 文件,则还必须添加不幸的是,该模型将在 VRAM 中占用更多空间
    -
    因此建议使用与它COMMANDLINE_ARGS=--precision full --no-half--no-half-vae--medvram
  • 如果您的输出是混乱的彩虹混乱,则图像分辨率设置得太低
  • CFG 水平过高也会引入颜色失真,您的 CFG 应该在 5-15 之间
  • 在较旧的系统上,您可能需要更改为cudatoolkit=11.3cudatoolkit=9.0
  • 确保您的安装位于 C: 驱动器上
  • 本指南仅适用于 NVIDIA GPU,因为稳定的扩散需要 cuda 内核。
    AMD 用户应尝试本指南

--TIPS--

  • 您可以在 WebUI 中快速切换下载的 .ckpt 文件
  • 与基础标清不同,NovelAI 可以原生生成高达 768x768 的图像而不会失真
  • 否则,如果要在SD中生成明显大于512x512的图像,请确保选中高分辨率,修复以获得最佳效果。
    如果不这样做,“克隆”失真可能会开始出现(多张脸、手臂等)+较低的去噪强度似乎效果最好(我用了 0.5)
  • 即使有可用的修复程序,仍然建议以 512x512 生成以获得最准确的结果,因为非 NovelAI 模型是在 512x 图像上训练的。
  • 外福模型和普通的.ckpt各有利弊;
    使用 waifu .ckpt 完成的非动漫宣传将偏向于动漫风格化,使逼真的面孔和人物更加困难,除非您将其与另一个模型合并
  • 训练时不要使用 or 参数!结果会非常差--medvram--lowvram
  • nai.yaml 可能不需要实现 1:1 与 NovelAI 结果
  • 在关键字周围使用 ((( ))) 以增加其强度,使用 [[[ ]]] 以降低其强度
  • 与其他采样器不同,k_euler_a可以从低步长产生高质量的结果。
  • 将提示另存为样式允许您将提示另存为易于选择的输出。保存第一个样式后,“滚动”左侧将出现一个可供选择的框,允许您进行选择。可以通过访问
    删除提示(如果您找到一个组合,可以生成非常好的图像并希望在各种主题上重复使用它,这将很有帮助。styles.csv
  • 您可以将自己喜欢的结果从右侧的输出选项卡拖回img2img以进行进一步迭代
  • k_euler_ak_dpm_2_a采样器从相同的种子和提示
    中给出截然不同,更复杂的结果,但是它们的结果在整个步骤中并不一致。其他采样器提供更可预测的线性细化和更多步进
  • 每个生成结果的种子都在输出文件名中,如果要重新访问它
  • 在img2img中使用相同的关键字生成图像会产生有趣的变体
  • 建议提示在一个维度上至少为 512 像素,或在绝对最小
    时为 384x384 正方形 任何较小的内容都会有严重的失真
  • CLIP询问器占用大量空间(8GB),如果您不打算经常使用它,您可能不想选择它
  • 在img2img中尝试低强度(0.3-0.4)+高CFG以获得有趣的输出
  • 您可以在提示中使用日语 Unicode 字符

--HOWTO EXTRAS--

-----在中央处理器上运行-----可以在CPU而不是GPU上运行完整的WebUI,但是速度非常慢。
如果您想要更快但非常基本的CPU体验,请尝试Openvino版本
否则:

  • 遵循主要指南
  • 在 def prepare_environment下修改这 2 行,如下所示:
  • torch_command = os.environ.get('TORCH_COMMAND', "pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cpu")
  • commandline_args = os.environ.get('COMMANDLINE_ARGS', "--skip-torch-cuda-test --precision full --no-half")
  • 像往常一样启动webui用户.bat

-----推出不同的模型-----如果您安装了多个模型,并且想方便地从另一个模型启动,则可以进行另一个.bat

  • 复制webui-user.bat并随心所欲地命名
  • 之后,将所需的模型后跟添加到启动参数中:例如:您还可以在 webUI 中的设置选项卡下选择其他模型COMMANDLINE_ARGS=--ckptCOMMANDLINE_ARGS=--ckpt wd-v1-2-full-emma.ckpt

-----更改 UI 默认值-----运行一次后,webui 目录中会出现一个文件:
根据自己的喜好编辑值,下次启动程序时将应用它们。ui-config.json

-----在线运行或通过局域网运行-----编辑 webui-user.bat并在 之后添加必要的参数以及您拥有的任何现有参数COMMANDLINE_ARGS=

  • 用于使服务器侦听网络连接。这将允许本地网络上的设备访问 UI,如果配置端口转发,还允许 Internet 上的计算机访问。--listen
  • 使用选项联机运行。您将获得一个xxx.app.gradio链接。这是在协作中使用该程序的预期方式。--share
  • 用于使服务器侦听特定端口,即所需的端口。请记住,低于 1024 的所有端口都需要 root/管理员权限,因此建议使用 1024 以上的端口。默认为端口 7860(如果可用)。--port xxxxxxxx
  • 用于添加共享身份验证
    (可选)可以提供多组用户名和密码,以逗号分隔(user1:pw1、user2:pw2)。--share --gradio-auth username:password

-----设置蟒蛇路径-----有时,您可能需要手动将 Python 目录添加到 PATH 中:

  • 找到你的Python安装
    的位置,它应该是类似的东西C:\Users\you\AppData\Local\Programs\Python
  • 打开文件夹并shift+右键单击
    ,然后单击“复制为路径”python.exe
  • 编辑
    粘贴您在 PYTHON= 之后复制的路径(保留引号),然后保存webui-user.bat

-----自动更新-----注意:这仅适用于曾经安装存储库的用户
您可以通过编辑
将脚本设置为自动更新 在“保存”上方
添加一行git clonewebui-user.batgit pullcall webui.bat

-----X/Y 图-----尽管大多数功能使用起来相对不言自明,但 X/Y 绘图脚本可能特别难以理解,尤其是“S/R”选项

  • S/R 提示 在整个提示中搜索逗号分隔值字段中的第一个条目,并在每次迭代时用值提示 S/R 字段中的一个条目替换第一个单词的所有匹配项。
  • 当然,迭代也会发生在其他类型字段的每个值上。
  • 关键字也会被迭代,因此当您的提示还具有“reddit gayfurs”时,使用“红色,白色,蓝色”之类的内容会导致问题。

-----设置不同的输出位置------将文本复制到此处并将其另存为,将其移动到您希望图像输出到的任何位置。
运行它,它将创建相应的子文件夹。完成后,您可以删除.bat。
- 转到UI的“设置”选项卡并相应地分配新文件位置。分配位置后,请确保点击“应用设置
” 如果您希望组织输出,还建议启用以下设置
-[x] 编写图像/网格时,使用从提示派生的名称创建一个目录output.bat

-----GFPGAN-----GFPGAN用于校正逼真的面部,它被主安装附带的CodeFormer 面部校正所取代,并且通常更好。
要安装 GFPGAN,请下载 GFPGANv1.3.pth 并将其放入主 webUI 目录

--PRUNING A .CKPT--

由于冗余的训练数据,“未修剪”模型最高可达 7GB,
但可以减少到 3.6gb 而不会降低质量,从而减少 RAM 使用和加载时间
(原始模型不会丢失,会制作新的修剪副本)
注意:您应该仅在运行webui-user后执行此操作.bat至少一次

  • 将要修剪的 .ckpt 文件放在主文件夹中/stable-diffusion-webui
  • 复制 https://raw.githubusercontent.com/harubaru/waifu-diffusion/main/scripts/prune.py
    删除第 6 行和第 8 行另
    存为
    主文件夹中的“所有文件”prune.py/stable-diffusion-webui
  • 将 prune.py 的最后一行编辑到您的 ckpt 名称:
    例如。 并保存prune_it('wd-v1-2-full-emma.ckpt')
  • 复制并保存用于启动 prune.py 的脚本 在这里 将其
    保存为主文件夹
    另存为“所有文件”
    (这会在运行 prune.py 之前将 venv 和 torch 依赖项加载到内存中)prune.bat/stable-diffusion-webui
  • 运行修剪.bat
    修剪过程可能需要几分钟
    之后,您现在应该在正常修剪的 .ckpt 旁边有一个修剪过的 .ckpt

--SAFE UPDATING--

AUTOMATIC1111 存储库就是我们所说的前沿,这意味着尽管新功能的添加速度很快,但随之而来的是新错误的情况并
不少见。
好消息是,如果出现问题,git pull 更新是可逆
以下是在不冒险的情况下进行更新的方法:

  • 在你的主稳定扩散文件夹中打开一个 git bash,在
  • 输入以获取当前版本的哈希值。写下来
    它应该是一个 7 个字符的字符串,例如“cc58036”git rev-parse --short HEAD
  • 通过键入正常更新git pull

如果最新版本工作正常,那就太好了!
如果您需要还原,您所要做的就是键入后跟以前的版本哈希,
例如。git checkoutgit checkout 7edd58d

--OUTPAINTING--

(9/17) webUI 中添加了一个新的和改进的外画脚本!
确保使用,以便您可以更新到最新版本
要使用,请转到img2img,然后从脚本下拉菜单
中选择“外画mk2” 推荐参数 (需要进一步测试)
步数:85-100
采样器:欧拉
CFG 刻度:7.5
降噪强度:0.8
宽度:与源图像
相同 高度:与源图像
相同 要扩展的像素: 128-256
遮罩模糊:10-25 衰减指数:1-2
颜色变化:0.05

提示git pull

  • 确保宽度和高度与源图像分辨率相同或接近,
    否则外画结果将不连贯
  • 不要被这些参数所束缚,强烈建议进行调整
    它们只是通过几分钟的测试对我最有效的粗略近似值
  • 蒙版模糊程度越高,效果往往越“无缝”(在一定程度上),
    但如果太高,就会发生变形失真

--W7 HELP--

在 Windows 7 上,尝试遵循本指南时,您可能会收到“api-ms-win-core-path-l1-1-0.dll 丢失”作为错误。
这是因为许多现代程序和框架需要仅在较新版本的 Windows 中存在的系统文件。
幸运的是,它已被向后移植以与W7兼容,并且可以下载 这里 (Github页面)
x86.dll压缩并复制到其中,将x64.dll复制到并重新启动,那么您应该很高兴
如果您没有收到该错误,则无需执行此操作。C:\Windows\SysWOW64C:\Windows\System32

--MISC--

--旧模型--
6月份泄露的原始v1.3模型可以在这里下载: https://drinkordiecdn.lol/sd-v1-3-full-ema.ckpt
备份下载: https://download1980.mediafire.com/3nu6nlhy92ag/wnlyj8vikn2kpzn/sd-v1-3-full-ema.ckpt
洪流磁铁:
https://rentry.co/6gocs

--旧指南--
伏地指南前 目录 (9/15) https://rentry.org/voldyold
原始的 hlky 指南(自 9/8/22 起替换)在这里: https://rentry.org/GUItard
日语 hlky 指南 https://news.livedoor.com/article/detail/22794512/
原始指南(截至 8/25/22 被替换)在这里: https://rentry.org/kretard

https://xpanx.com/
MoMo
  • 本文由 发表于 2022年10月30日20:32:45
  • 转载请务必保留本文链接:https://xpanx.com/3960.html
匿名

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: