命令行参数和设置
环境变量
| 姓名 | 描述 | 
|---|---|
| PYTHON | 为Python可执行文件设置自定义路径。 | 
| VENV_DIR | 指定虚拟环境的路径。默认是venv。特殊值-在不创建虚拟环境的情况下运行脚本。 | 
| COMMANDLINE_ARGS | 主程序的附加命令行参数。 | 
| IGNORE_CMD_ARGS_ERRORS | 设置为任何内容,以使程序在遇到意外的命令行参数时不会因错误退出。 | 
| REQS_FILE | 运行launch.py时将安装的带有依赖项的requirements.txt文件的名称。默认为requirements_versions.txt。 | 
| TORCH_COMMAND | 安装PyTorch的命令。 | 
| INDEX_URL | --index-urlpip的参数。 | 
| TRANSFORMERS_CACHE | 变压器库将下载并保存其与CLIP模型相关的文件的路径。 | 
| CUDA_VISIBLE_DEVICES | 选择GPU,在具有多个GPU的系统上用于实例。例如,如果您想使用辅助GPU,请输入“1”。 | 
(在COMMANDLINE_ARGS中向webui-user.bat添加新行):set CUDA_VISIBLE_DEVICES=0 | 
|
或者,只需在COMMANDLINE_ARGS中使用--device-id标志。 | 
webui用户
指定环境变量的推荐方法是编辑webui-user.bat(Windows)和webui-user.sh(Linux):
set VARNAME=VALUE对于Windowsexport VARNAME="VALUE"对于Linux
例如,在Windows中:
set COMMANDLINE_ARGS=--allow-code --xformers --skip-torch-cuda-test --no-half-vae --api --ckpt-dir A:\\stable-diffusion-checkpoints 
在线运行
使用--share选项在线运行。您将获得一个xxx.app.gradio链接。这是在colabs中使用该程序的预期方式。您可以使用标志--gradio-auth username:password为所述gradio共享实例设置身份验证,可以选择提供多组用户名和密码,用逗号分隔。
在局域网内运行
使用--listen让服务器监听网络连接。这将允许本地网络上的计算机访问用户界面,如果您配置端口转发,也可以访问互联网上的计算机。示例地址:http://192.168.1.3:7860您的“192.168.1.3”是本地IP地址。
使用--port xxxx使服务器在特定端口上监听,xxxx是所需的端口。请记住,所有低于1024的端口都需要root/管理员权限,因此建议使用高于1024的端口。如果可用,默认为端口7860。
在CPU上运行
仅使用CPU运行是可能的,但不推荐使用。它非常慢,没有fp16实现。
要运行,您必须启用所有这些标志:--use-cpu all --precision full --no-half --skip-torch-cuda-test
虽然这是一种可疑的运行webui的方式,但由于生成速度非常慢;使用各种人工智能升级器和字幕工具可能对一些人有用。
额外内容:
所有命令行参数
| Argument Command | Value | Default | Description | 
|---|---|---|---|
| CONFIGURATION | |||
| -h, --help | None | False | 显示此帮助消息并退出 | 
| --exit | 安装后终止 | ||
| --data-dir | DATA_DIR | ./ | 存储所有用户数据的基本路径 | 
| --config | CONFIG | configs/stable-diffusion/v1-inference.yaml | 构建模型的配置路径 | 
| --ckpt | CKPT | model.ckpt | Stable Diffusion 模型检查点的路径;如果指定,此检查点将添加到检查点列表中并加载 | 
| --ckpt-dir | CKPT_DIR | None | 具有Stable Diffusion检查点的目录路径 | 
| --no-download-sd-model | None | False | 即使没有找到SD1.5模型,也不要下载SD1.5模型 | 
| --vae-dir | VAE_PATH | None | Path to Variational Autoencoders model | 
| --vae-path | VAE_PATH | None | 用作VAE的检查点;设置此参数 | 
| --gfpgan-dir | GFPGAN_DIR | GFPGAN/ | GFPGAN 目录 | 
| --gfpgan-model | GFPGAN_MODEL | GFPGAN model file name. | |
| --codeformer-models-path | CODEFORMER_MODELS_PATH | models/Codeformer/ | 带有codeformer模型文件的目录路径 | 
| --gfpgan-models-path | GFPGAN_MODELS_PATH | models/GFPGAN | 带有GFPGAN模型文件的目录路径 | 
| --esrgan-models-path | ESRGAN_MODELS_PATH | models/ESRGAN | 带有ESRGAN模型文件的目录路径 | 
| --bsrgan-models-path | BSRGAN_MODELS_PATH | models/BSRGAN | 带有BSRGAN模型文件的目录路径 | 
| --realesrgan-models-path | REALESRGAN_MODELS_PATH | models/RealESRGAN | 带有RealESRGAN模型文件的目录路径 | 
| --scunet-models-path | SCUNET_MODELS_PATH | models/ScuNET | 带有ScuNET模型文件的目录路径 | 
| --swinir-models-path | SWINIR_MODELS_PATH | models/SwinIR | 带有SwinIR和SwinIR v2模型文件的目录路径 | 
| --ldsr-models-path | LDSR_MODELS_PATH | models/LDSR | 带有LDSR模型文件的目录路径 | 
| --lora-dir | LORA_DIR | models/Lora | 使用Lora网络的目录路径 | 
| --clip-models-path | CLIP_MODELS_PATH | None | 带有CLIP模型文件的目录路径 | 
| --embeddings-dir | EMBEDDINGS_DIR | embeddings/ | 嵌入文本反转的目录 (default: embeddings). | 
| --textual-inversion-templates-dir | TEXTUAL_INVERSION_TEMPLATES_DIR | textual_inversion_templates | 带有文本反转模板的目录 | 
| --hypernetwork-dir | HYPERNETWORK_DIR | models/hypernetworks/ | hypernetwork 目录 | 
| --localizations-dir | LOCALIZATIONS_DIR | localizations/ | Localizations 目录 | 
| --styles-file | STYLES_FILE | styles.csv | 用于样式的文件名 | 
| --ui-config-file | UI_CONFIG_FILE | ui-config.json | 用于UI配置的文件名 | 
| --no-progressbar-hiding | None | False | 不要在gradio UI中隐藏进度条(我们隐藏它,因为如果您在浏览器中有硬件加速,它会减慢ML的速度) | 
| --max-batch-count | MAX_BATCH_COUNT | 16 | UI的最大批处理计数值 | 
| --ui-settings-file | UI_SETTINGS_FILE | config.json | 用于UI设置的文件名 | 
| --allow-code | None | False | 允许从Web UI执行自定义脚本 | 
| --share | None | False | 对 gradio 使用 share=True 并使 UI 可通过其网站访问 | 
| --listen | None | False | 以0.0.0.0作为服务器名称启动gradio,允许响应网络请求 | 
| --port | PORT | 7860 | 使用给定的服务器端口启动gradio,您需要 ports < 1024; 的 root/admin 权限;如果可用,默认为7860 | 
| --hide-ui-dir-config | None | False | 从Web UI中隐藏目录配置 | 
| --freeze-settings | None | False | 禁用编辑设置 | 
| --enable-insecure-extension-access | None | False | 无论其他选项如何,都启用扩展选项卡 | 
| --gradio-debug | None | False | 使用 --debug 选项启动gradio | 
| --gradio-auth | GRADIO_AUTH | None | 设置gradio身份验证如 username:password;或逗号分隔多个如 u1:p1,u2:p2,u3:p3 | 
| --gradio-auth-path | GRADIO_AUTH_PATH | None | 设置gradio身份验证文件路径ex. /path/to/auth/file 与 --gradio-auth 相同的身份验证格式 | 
| --disable-console-progressbars | None | False | 不要将进度条输出到控制台 | 
| --enable-console-prompts | None | False | 使用txt2img和img2img生成时,将提示打印到控制台 | 
| --api | None | False | 使用API启动Web UI | 
| --api-auth | API_AUTH | None | 为API设置身份验证,如 username:password;或逗号分隔多个如 u1:p1,u2:p2,u3:p3. | 
| --api-log | None | False | 启用所有API请求的日志记录 | 
| --nowebui | None | False | 只启动API,没有UI | 
| --ui-debug-mode | None | False | 不要加载模型来快速启动UI | 
| --device-id | DEVICE_ID | None | 选择要使用的默认CUDA设备 (之前可能需要 export CUDA_VISIBLE_DEVICES=0,1 等) | 
| --administrator | None | False | 管理员权限 | 
| --cors-allow-origins | CORS_ALLOW_ORIGINS | None | 以逗号分隔列表(无空格)的形式允许CORS来源 | 
| --cors-allow-origins-regex | CORS_ALLOW_ORIGINS_REGEX | None | 允许以单个正则表达式的形式提供CORS来源 | 
| --tls-keyfile | TLS_KEYFILE | None | 部分启用TLS,需要 --tls-certfile 才能完全运行 | 
| --tls-certfile | TLS_CERTFILE | None | 部分启用TLS,需要 --tls-keyfile 才能完全运行 | 
| --disable-tls-verify | None | False | 通过后,启用自签名证书的使用 | 
| --server-name | SERVER_NAME | None | 设置服务器的主机名 | 
| --no-gradio-queue | None | False | 禁用gradio队列;导致网页使用http请求而不是websockets;是早期版本中的默认值 | 
| --gradio-allowed-path | None | None | 将路径添加到Gradio的allowed_paths;使从中提供文件成为可能 | 
| --no-hashing | None | False | 禁用检查点的SHA-256散列,以帮助加载性能 | 
| --skip-version-check | None | False | 不要检查 torch and xformers 版本 | 
| --skip-python-version-check | None | False | 不要检查Python的版本 | 
| --skip-torch-cuda-test | None | False | 不要检查CUDA是否能够正常工作 | 
| --skip-install | None | False | 跳过软件包的安装 | 
| PERFORMANCE | |||
| --xformers | None | False | 启用xformers进行交叉注意力层 | 
| --force-enable-xformers | None | False | 启用xformers进行交叉注意力层,无论检查代码是否认为您可以运行它; 如果无法工作,请勿进行错误报告. | 
| --xformers-flash-attention | None | False | 启用带有Flash Attention的xformers以提高可重现性(仅支持 SD2.x 或变体) | 
| --opt-sdp-attention | None | False | 启用缩放点积交叉注意力层优化;需要 PyTorch 2.* | 
| --opt-sdp-no-mem-attention | False | None | 在没有内存高效注意力的情况下启用缩放点产品交叉注意层优化,使图像生成具有确定性;需要 PyTorch 2.* | 
| --opt-split-attention | None | False | 强制启用Doggettx的交叉注意力层优化。默认情况下,它对启用CUDA的系统是打开的 | 
| --opt-split-attention-invokeai | None | False | Force-enables InvokeAI的交叉注意力层优化。默认情况下,当CUDA不可用时,它处于打开状态 | 
| --opt-split-attention-v1 | None | False | 启用旧版本的拆分注意力优化,该优化不会消耗所有可用的VRAM | 
| --opt-sub-quad-attention | None | False | 启用内存高效的 sub-quadratic 交叉注意力层优化 | 
| --sub-quad-q-chunk-size | SUB_QUAD_Q_CHUNK_SIZE | 1024 | 查询块大小,用于亚四分层交叉注意力层优化 | 
| --sub-quad-kv-chunk-size | SUB_QUAD_KV_CHUNK_SIZE | None | 用于 sub-quadratic 交叉注意力层优化的KV块大小 | 
| --sub-quad-chunk-threshold | SUB_QUAD_CHUNK_THRESHOLD | None | 使用分块的 sub-quadratic 交叉注意力层优化的VRAM阈值百分比 | 
| --opt-channelslast | None | False | 启用4d张量的替代布局,可能 only 在具有张量内核(16xx及更高)的Nvidia卡上实现更快的推断 | 
| --disable-opt-split-attention | None | False | 强制禁用交叉注意力层优化 | 
| --disable-nan-check | None | False | 不要检查生成的 images/latent 空间是否有nans;对于在CI中没有检查点的情况下运行很有用 | 
| --use-cpu | {all, sd, interrogate, gfpgan, bsrgan, esrgan, scunet, codeformer} | None | 使用CPU作为指定模块的 torch 设备 | 
| --no-half | None | False | 不要将模型切换到 16-bit floats | 
| --precision | {full,autocast} | autocast | 以这种精确度进行评估 | 
| --no-half-vae | None | False | 不要将VAE模型切换到 16-bit floats. | 
| --upcast-sampling | None | False | 向上采样。没有效果--no-half。通常产生与--no-half相似的结果,在使用更少的内存的同时,性能更好 | 
| --medvram | None | False | 启用Stable Diffusion 模型优化,以牺牲一些性能,以降低VRAM的使用率 | 
| --lowvram | None | False | 启用Stable Diffusion 模型优化,为非常低的VRAM使用量牺牲大量速度 | 
| --lowram | None | False | 将稳定的扩散检查点权重加载到VRAM而不是RAM | 
| --always-batch-cond-uncond | None | False | 禁用启用使用 --medvram 或  --lowvram 保存内存的cond/uncond批处理 | 
| FEATURES | |||
| --autolaunch | None | False | 启动时在系统的默认浏览器中打开Web UI URL | 
| --theme | None | Unset | 使用指定主题 (light or dark) 打开Web UI。如果未指定,则使用默认浏览器主题  (light or dark) | 
| --use-textbox-seed | None | False | 在UI中使用 seeds 文本框(没有 up/down,但可以输入 long seeds ) | 
| --disable-safe-unpickle | None | False | 禁用检查PyTorch模型是否有恶意代码 | 
| --ngrok | NGROK | None | ngrok authtoken,gradio  --share 的替代品 | 
| --ngrok-region | NGROK_REGION | us | ngrok应该开始的区域 | 
| --update-check | None | None | 启动时,通知您的Web UI版本(commit)是否与当前主分支是最新的 | 
| --update-all-extensions | None | None | 启动时,它会提取您已安装的所有扩展的最新更新 | 
| --reinstall-xformers | None | False | 强制重新安装xformers。对升级很有用 - 但在升级后将其删除,否则您将永久重新安装xformers | 
| --reinstall-torch | None | False | 强制重新安装手电筒。对升级有用 - 但在升级后将其删除,否则您将永久重新安装torch | 
| --tests | TESTS | False | 运行测试以验证Web UI功能,有关更多详细信息,请参阅维基主题 | 
| --no-tests | None | False | 即使指定了 --tests 选项,也不要运行测试 | 
| DEFUNCT OPTIONS | |||
| --show-negative-prompt | None | False | 不再有效果 | 
| --deepdanbooru | None | False | 不再有效果 | 
| --unload-gfpgan | None | False | 不再有效果 | 
| --gradio-img2img-tool | GRADIO_IMG2IMG_TOOL | None | 不再有效果 | 
| --gradio-inpaint-tool | GRADIO_INPAINT_TOOL | None | 不再有效果 | 
| --gradio-queue | None | False | 不再有效果 | 
