命令行参数和设置
环境变量
姓名 | 描述 |
---|---|
PYTHON | 为Python可执行文件设置自定义路径。 |
VENV_DIR | 指定虚拟环境的路径。默认是venv 。特殊值- 在不创建虚拟环境的情况下运行脚本。 |
COMMANDLINE_ARGS | 主程序的附加命令行参数。 |
IGNORE_CMD_ARGS_ERRORS | 设置为任何内容,以使程序在遇到意外的命令行参数时不会因错误退出。 |
REQS_FILE | 运行launch.py 时将安装的带有依赖项的requirements.txt 文件的名称。默认为requirements_versions.txt 。 |
TORCH_COMMAND | 安装PyTorch的命令。 |
INDEX_URL | --index-url pip的参数。 |
TRANSFORMERS_CACHE | 变压器库将下载并保存其与CLIP模型相关的文件的路径。 |
CUDA_VISIBLE_DEVICES | 选择GPU,在具有多个GPU的系统上用于实例。例如,如果您想使用辅助GPU,请输入“1”。 |
(在COMMANDLINE_ARGS中向webui-user.bat添加新行):set CUDA_VISIBLE_DEVICES=0 |
|
或者,只需在COMMANDLINE_ARGS 中使用--device-id 标志。 |
webui用户
指定环境变量的推荐方法是编辑webui-user.bat
(Windows)和webui-user.sh
(Linux):
set VARNAME=VALUE
对于Windowsexport VARNAME="VALUE"
对于Linux
例如,在Windows中:
set COMMANDLINE_ARGS=--allow-code --xformers --skip-torch-cuda-test --no-half-vae --api --ckpt-dir A:\\stable-diffusion-checkpoints
在线运行
使用--share
选项在线运行。您将获得一个xxx.app.gradio链接。这是在colabs中使用该程序的预期方式。您可以使用标志--gradio-auth username:password
为所述gradio共享实例设置身份验证,可以选择提供多组用户名和密码,用逗号分隔。
在局域网内运行
使用--listen
让服务器监听网络连接。这将允许本地网络上的计算机访问用户界面,如果您配置端口转发,也可以访问互联网上的计算机。示例地址:http://192.168.1.3:7860
您的“192.168.1.3”是本地IP地址。
使用--port xxxx
使服务器在特定端口上监听,xxxx是所需的端口。请记住,所有低于1024的端口都需要root/管理员权限,因此建议使用高于1024的端口。如果可用,默认为端口7860。
在CPU上运行
仅使用CPU运行是可能的,但不推荐使用。它非常慢,没有fp16实现。
要运行,您必须启用所有这些标志:--use-cpu all --precision full --no-half --skip-torch-cuda-test
虽然这是一种可疑的运行webui的方式,但由于生成速度非常慢;使用各种人工智能升级器和字幕工具可能对一些人有用。
额外内容:
所有命令行参数
Argument Command | Value | Default | Description |
---|---|---|---|
CONFIGURATION | |||
-h, --help | None | False | 显示此帮助消息并退出 |
--exit | 安装后终止 | ||
--data-dir | DATA_DIR | ./ | 存储所有用户数据的基本路径 |
--config | CONFIG | configs/stable-diffusion/v1-inference.yaml | 构建模型的配置路径 |
--ckpt | CKPT | model.ckpt | Stable Diffusion 模型检查点的路径;如果指定,此检查点将添加到检查点列表中并加载 |
--ckpt-dir | CKPT_DIR | None | 具有Stable Diffusion检查点的目录路径 |
--no-download-sd-model | None | False | 即使没有找到SD1.5模型,也不要下载SD1.5模型 |
--vae-dir | VAE_PATH | None | Path to Variational Autoencoders model |
--vae-path | VAE_PATH | None | 用作VAE的检查点;设置此参数 |
--gfpgan-dir | GFPGAN_DIR | GFPGAN/ | GFPGAN 目录 |
--gfpgan-model | GFPGAN_MODEL | GFPGAN model file name. | |
--codeformer-models-path | CODEFORMER_MODELS_PATH | models/Codeformer/ | 带有codeformer模型文件的目录路径 |
--gfpgan-models-path | GFPGAN_MODELS_PATH | models/GFPGAN | 带有GFPGAN模型文件的目录路径 |
--esrgan-models-path | ESRGAN_MODELS_PATH | models/ESRGAN | 带有ESRGAN模型文件的目录路径 |
--bsrgan-models-path | BSRGAN_MODELS_PATH | models/BSRGAN | 带有BSRGAN模型文件的目录路径 |
--realesrgan-models-path | REALESRGAN_MODELS_PATH | models/RealESRGAN | 带有RealESRGAN模型文件的目录路径 |
--scunet-models-path | SCUNET_MODELS_PATH | models/ScuNET | 带有ScuNET模型文件的目录路径 |
--swinir-models-path | SWINIR_MODELS_PATH | models/SwinIR | 带有SwinIR和SwinIR v2模型文件的目录路径 |
--ldsr-models-path | LDSR_MODELS_PATH | models/LDSR | 带有LDSR模型文件的目录路径 |
--lora-dir | LORA_DIR | models/Lora | 使用Lora网络的目录路径 |
--clip-models-path | CLIP_MODELS_PATH | None | 带有CLIP模型文件的目录路径 |
--embeddings-dir | EMBEDDINGS_DIR | embeddings/ | 嵌入文本反转的目录 (default: embeddings). |
--textual-inversion-templates-dir | TEXTUAL_INVERSION_TEMPLATES_DIR | textual_inversion_templates | 带有文本反转模板的目录 |
--hypernetwork-dir | HYPERNETWORK_DIR | models/hypernetworks/ | hypernetwork 目录 |
--localizations-dir | LOCALIZATIONS_DIR | localizations/ | Localizations 目录 |
--styles-file | STYLES_FILE | styles.csv | 用于样式的文件名 |
--ui-config-file | UI_CONFIG_FILE | ui-config.json | 用于UI配置的文件名 |
--no-progressbar-hiding | None | False | 不要在gradio UI中隐藏进度条(我们隐藏它,因为如果您在浏览器中有硬件加速,它会减慢ML的速度) |
--max-batch-count | MAX_BATCH_COUNT | 16 | UI的最大批处理计数值 |
--ui-settings-file | UI_SETTINGS_FILE | config.json | 用于UI设置的文件名 |
--allow-code | None | False | 允许从Web UI执行自定义脚本 |
--share | None | False | 对 gradio 使用 share=True 并使 UI 可通过其网站访问 |
--listen | None | False | 以0.0.0.0作为服务器名称启动gradio,允许响应网络请求 |
--port | PORT | 7860 | 使用给定的服务器端口启动gradio,您需要 ports < 1024; 的 root/admin 权限;如果可用,默认为7860 |
--hide-ui-dir-config | None | False | 从Web UI中隐藏目录配置 |
--freeze-settings | None | False | 禁用编辑设置 |
--enable-insecure-extension-access | None | False | 无论其他选项如何,都启用扩展选项卡 |
--gradio-debug | None | False | 使用 --debug 选项启动gradio |
--gradio-auth | GRADIO_AUTH | None | 设置gradio身份验证如 username:password ;或逗号分隔多个如 u1:p1,u2:p2,u3:p3 |
--gradio-auth-path | GRADIO_AUTH_PATH | None | 设置gradio身份验证文件路径ex. /path/to/auth/file 与 --gradio-auth 相同的身份验证格式 |
--disable-console-progressbars | None | False | 不要将进度条输出到控制台 |
--enable-console-prompts | None | False | 使用txt2img和img2img生成时,将提示打印到控制台 |
--api | None | False | 使用API启动Web UI |
--api-auth | API_AUTH | None | 为API设置身份验证,如 username:password ;或逗号分隔多个如 u1:p1,u2:p2,u3:p3 . |
--api-log | None | False | 启用所有API请求的日志记录 |
--nowebui | None | False | 只启动API,没有UI |
--ui-debug-mode | None | False | 不要加载模型来快速启动UI |
--device-id | DEVICE_ID | None | 选择要使用的默认CUDA设备 (之前可能需要 export CUDA_VISIBLE_DEVICES=0,1 等) |
--administrator | None | False | 管理员权限 |
--cors-allow-origins | CORS_ALLOW_ORIGINS | None | 以逗号分隔列表(无空格)的形式允许CORS来源 |
--cors-allow-origins-regex | CORS_ALLOW_ORIGINS_REGEX | None | 允许以单个正则表达式的形式提供CORS来源 |
--tls-keyfile | TLS_KEYFILE | None | 部分启用TLS,需要 --tls-certfile 才能完全运行 |
--tls-certfile | TLS_CERTFILE | None | 部分启用TLS,需要 --tls-keyfile 才能完全运行 |
--disable-tls-verify | None | False | 通过后,启用自签名证书的使用 |
--server-name | SERVER_NAME | None | 设置服务器的主机名 |
--no-gradio-queue | None | False | 禁用gradio队列;导致网页使用http请求而不是websockets;是早期版本中的默认值 |
--gradio-allowed-path | None | None | 将路径添加到Gradio的allowed_paths ;使从中提供文件成为可能 |
--no-hashing | None | False | 禁用检查点的SHA-256散列,以帮助加载性能 |
--skip-version-check | None | False | 不要检查 torch and xformers 版本 |
--skip-python-version-check | None | False | 不要检查Python的版本 |
--skip-torch-cuda-test | None | False | 不要检查CUDA是否能够正常工作 |
--skip-install | None | False | 跳过软件包的安装 |
PERFORMANCE | |||
--xformers | None | False | 启用xformers进行交叉注意力层 |
--force-enable-xformers | None | False | 启用xformers进行交叉注意力层,无论检查代码是否认为您可以运行它; 如果无法工作,请勿进行错误报告. |
--xformers-flash-attention | None | False | 启用带有Flash Attention的xformers以提高可重现性(仅支持 SD2.x 或变体) |
--opt-sdp-attention | None | False | 启用缩放点积交叉注意力层优化;需要 PyTorch 2.* |
--opt-sdp-no-mem-attention | False | None | 在没有内存高效注意力的情况下启用缩放点产品交叉注意层优化,使图像生成具有确定性;需要 PyTorch 2.* |
--opt-split-attention | None | False | 强制启用Doggettx的交叉注意力层优化。默认情况下,它对启用CUDA的系统是打开的 |
--opt-split-attention-invokeai | None | False | Force-enables InvokeAI的交叉注意力层优化。默认情况下,当CUDA不可用时,它处于打开状态 |
--opt-split-attention-v1 | None | False | 启用旧版本的拆分注意力优化,该优化不会消耗所有可用的VRAM |
--opt-sub-quad-attention | None | False | 启用内存高效的 sub-quadratic 交叉注意力层优化 |
--sub-quad-q-chunk-size | SUB_QUAD_Q_CHUNK_SIZE | 1024 | 查询块大小,用于亚四分层交叉注意力层优化 |
--sub-quad-kv-chunk-size | SUB_QUAD_KV_CHUNK_SIZE | None | 用于 sub-quadratic 交叉注意力层优化的KV块大小 |
--sub-quad-chunk-threshold | SUB_QUAD_CHUNK_THRESHOLD | None | 使用分块的 sub-quadratic 交叉注意力层优化的VRAM阈值百分比 |
--opt-channelslast | None | False | 启用4d张量的替代布局,可能 only 在具有张量内核(16xx及更高)的Nvidia卡上实现更快的推断 |
--disable-opt-split-attention | None | False | 强制禁用交叉注意力层优化 |
--disable-nan-check | None | False | 不要检查生成的 images/latent 空间是否有nans;对于在CI中没有检查点的情况下运行很有用 |
--use-cpu | {all, sd, interrogate, gfpgan, bsrgan, esrgan, scunet, codeformer} | None | 使用CPU作为指定模块的 torch 设备 |
--no-half | None | False | 不要将模型切换到 16-bit floats |
--precision | {full,autocast} | autocast | 以这种精确度进行评估 |
--no-half-vae | None | False | 不要将VAE模型切换到 16-bit floats. |
--upcast-sampling | None | False | 向上采样。没有效果--no-half 。通常产生与--no-half 相似的结果,在使用更少的内存的同时,性能更好 |
--medvram | None | False | 启用Stable Diffusion 模型优化,以牺牲一些性能,以降低VRAM的使用率 |
--lowvram | None | False | 启用Stable Diffusion 模型优化,为非常低的VRAM使用量牺牲大量速度 |
--lowram | None | False | 将稳定的扩散检查点权重加载到VRAM而不是RAM |
--always-batch-cond-uncond | None | False | 禁用启用使用 --medvram 或 --lowvram 保存内存的cond/uncond批处理 |
FEATURES | |||
--autolaunch | None | False | 启动时在系统的默认浏览器中打开Web UI URL |
--theme | None | Unset | 使用指定主题 (light or dark ) 打开Web UI。如果未指定,则使用默认浏览器主题 (light or dark ) |
--use-textbox-seed | None | False | 在UI中使用 seeds 文本框(没有 up/down,但可以输入 long seeds ) |
--disable-safe-unpickle | None | False | 禁用检查PyTorch模型是否有恶意代码 |
--ngrok | NGROK | None | ngrok authtoken,gradio --share 的替代品 |
--ngrok-region | NGROK_REGION | us | ngrok应该开始的区域 |
--update-check | None | None | 启动时,通知您的Web UI版本(commit)是否与当前主分支是最新的 |
--update-all-extensions | None | None | 启动时,它会提取您已安装的所有扩展的最新更新 |
--reinstall-xformers | None | False | 强制重新安装xformers。对升级很有用 - 但在升级后将其删除,否则您将永久重新安装xformers |
--reinstall-torch | None | False | 强制重新安装手电筒。对升级有用 - 但在升级后将其删除,否则您将永久重新安装torch |
--tests | TESTS | False | 运行测试以验证Web UI功能,有关更多详细信息,请参阅维基主题 |
--no-tests | None | False | 即使指定了 --tests 选项,也不要运行测试 |
DEFUNCT OPTIONS | |||
--show-negative-prompt | None | False | 不再有效果 |
--deepdanbooru | None | False | 不再有效果 |
--unload-gfpgan | None | False | 不再有效果 |
--gradio-img2img-tool | GRADIO_IMG2IMG_TOOL | None | 不再有效果 |
--gradio-inpaint-tool | GRADIO_INPAINT_TOOL | None | 不再有效果 |
--gradio-queue | None | False | 不再有效果 |