Skip to content

命令行参数和设置

环境变量

姓名 描述
PYTHON 为Python可执行文件设置自定义路径。
VENV_DIR 指定虚拟环境的路径。默认是venv。特殊值-在不创建虚拟环境的情况下运行脚本。
COMMANDLINE_ARGS 主程序的附加命令行参数。
IGNORE_CMD_ARGS_ERRORS 设置为任何内容,以使程序在遇到意外的命令行参数时不会因错误退出。
REQS_FILE 运行launch.py时将安装的带有依赖项的requirements.txt文件的名称。默认为requirements_versions.txt
TORCH_COMMAND 安装PyTorch的命令。
INDEX_URL --index-urlpip的参数。
TRANSFORMERS_CACHE 变压器库将下载并保存其与CLIP模型相关的文件的路径。
CUDA_VISIBLE_DEVICES 选择GPU,在具有多个GPU的系统上用于实例。例如,如果您想使用辅助GPU,请输入“1”。
(在COMMANDLINE_ARGS中向webui-user.bat添加新行):set CUDA_VISIBLE_DEVICES=0
或者,只需在COMMANDLINE_ARGS中使用--device-id标志。

webui用户

指定环境变量的推荐方法是编辑webui-user.bat(Windows)和webui-user.sh(Linux):

  • set VARNAME=VALUE对于Windows
  • export VARNAME="VALUE"对于Linux

例如,在Windows中:

set COMMANDLINE_ARGS=--allow-code --xformers --skip-torch-cuda-test --no-half-vae --api --ckpt-dir A:\\stable-diffusion-checkpoints 

在线运行

使用--share选项在线运行。您将获得一个xxx.app.gradio链接。这是在colabs中使用该程序的预期方式。您可以使用标志--gradio-auth username:password为所述gradio共享实例设置身份验证,可以选择提供多组用户名和密码,用逗号分隔。

在局域网内运行

使用--listen让服务器监听网络连接。这将允许本地网络上的计算机访问用户界面,如果您配置端口转发,也可以访问互联网上的计算机。示例地址:http://192.168.1.3:7860您的“192.168.1.3”是本地IP地址。

使用--port xxxx使服务器在特定端口上监听,xxxx是所需的端口。请记住,所有低于1024的端口都需要root/管理员权限,因此建议使用高于1024的端口。如果可用,默认为端口7860。

在CPU上运行

仅使用CPU运行是可能的,但不推荐使用。它非常慢,没有fp16实现。

要运行,您必须启用所有这些标志:--use-cpu all --precision full --no-half --skip-torch-cuda-test

虽然这是一种可疑的运行webui的方式,但由于生成速度非常慢;使用各种人工智能升级器和字幕工具可能对一些人有用。

额外内容:

所有命令行参数

Argument Command Value Default Description
CONFIGURATION
-h, --help None False 显示此帮助消息并退出
--exit 安装后终止
--data-dir DATA_DIR ./ 存储所有用户数据的基本路径
--config CONFIG configs/stable-diffusion/v1-inference.yaml 构建模型的配置路径
--ckpt CKPT model.ckpt Stable Diffusion 模型检查点的路径;如果指定,此检查点将添加到检查点列表中并加载
--ckpt-dir CKPT_DIR None 具有Stable Diffusion检查点的目录路径
--no-download-sd-model None False 即使没有找到SD1.5模型,也不要下载SD1.5模型
--vae-dir VAE_PATH None Path to Variational Autoencoders model
--vae-path VAE_PATH None 用作VAE的检查点;设置此参数
--gfpgan-dir GFPGAN_DIR GFPGAN/ GFPGAN 目录
--gfpgan-model GFPGAN_MODEL GFPGAN model file name.
--codeformer-models-path CODEFORMER_MODELS_PATH models/Codeformer/ 带有codeformer模型文件的目录路径
--gfpgan-models-path GFPGAN_MODELS_PATH models/GFPGAN 带有GFPGAN模型文件的目录路径
--esrgan-models-path ESRGAN_MODELS_PATH models/ESRGAN 带有ESRGAN模型文件的目录路径
--bsrgan-models-path BSRGAN_MODELS_PATH models/BSRGAN 带有BSRGAN模型文件的目录路径
--realesrgan-models-path REALESRGAN_MODELS_PATH models/RealESRGAN 带有RealESRGAN模型文件的目录路径
--scunet-models-path SCUNET_MODELS_PATH models/ScuNET 带有ScuNET模型文件的目录路径
--swinir-models-path SWINIR_MODELS_PATH models/SwinIR 带有SwinIR和SwinIR v2模型文件的目录路径
--ldsr-models-path LDSR_MODELS_PATH models/LDSR 带有LDSR模型文件的目录路径
--lora-dir LORA_DIR models/Lora 使用Lora网络的目录路径
--clip-models-path CLIP_MODELS_PATH None 带有CLIP模型文件的目录路径
--embeddings-dir EMBEDDINGS_DIR embeddings/ 嵌入文本反转的目录 (default: embeddings).
--textual-inversion-templates-dir TEXTUAL_INVERSION_TEMPLATES_DIR textual_inversion_templates 带有文本反转模板的目录
--hypernetwork-dir HYPERNETWORK_DIR models/hypernetworks/ hypernetwork 目录
--localizations-dir LOCALIZATIONS_DIR localizations/ Localizations 目录
--styles-file STYLES_FILE styles.csv 用于样式的文件名
--ui-config-file UI_CONFIG_FILE ui-config.json 用于UI配置的文件名
--no-progressbar-hiding None False 不要在gradio UI中隐藏进度条(我们隐藏它,因为如果您在浏览器中有硬件加速,它会减慢ML的速度)
--max-batch-count MAX_BATCH_COUNT 16 UI的最大批处理计数值
--ui-settings-file UI_SETTINGS_FILE config.json 用于UI设置的文件名
--allow-code None False 允许从Web UI执行自定义脚本
--share None False 对 gradio 使用 share=True 并使 UI 可通过其网站访问
--listen None False 以0.0.0.0作为服务器名称启动gradio,允许响应网络请求
--port PORT 7860 使用给定的服务器端口启动gradio,您需要 ports < 1024; 的 root/admin 权限;如果可用,默认为7860
--hide-ui-dir-config None False 从Web UI中隐藏目录配置
--freeze-settings None False 禁用编辑设置
--enable-insecure-extension-access None False 无论其他选项如何,都启用扩展选项卡
--gradio-debug None False 使用 --debug 选项启动gradio
--gradio-auth GRADIO_AUTH None 设置gradio身份验证如 username:password;或逗号分隔多个如 u1:p1,u2:p2,u3:p3
--gradio-auth-path GRADIO_AUTH_PATH None 设置gradio身份验证文件路径ex. /path/to/auth/file--gradio-auth 相同的身份验证格式
--disable-console-progressbars None False 不要将进度条输出到控制台
--enable-console-prompts None False 使用txt2img和img2img生成时,将提示打印到控制台
--api None False 使用API启动Web UI
--api-auth API_AUTH None 为API设置身份验证,如 username:password;或逗号分隔多个如 u1:p1,u2:p2,u3:p3.
--api-log None False 启用所有API请求的日志记录
--nowebui None False 只启动API,没有UI
--ui-debug-mode None False 不要加载模型来快速启动UI
--device-id DEVICE_ID None 选择要使用的默认CUDA设备 (之前可能需要 export CUDA_VISIBLE_DEVICES=0,1 等)
--administrator None False 管理员权限
--cors-allow-origins CORS_ALLOW_ORIGINS None 以逗号分隔列表(无空格)的形式允许CORS来源
--cors-allow-origins-regex CORS_ALLOW_ORIGINS_REGEX None 允许以单个正则表达式的形式提供CORS来源
--tls-keyfile TLS_KEYFILE None 部分启用TLS,需要 --tls-certfile 才能完全运行
--tls-certfile TLS_CERTFILE None 部分启用TLS,需要 --tls-keyfile 才能完全运行
--disable-tls-verify None False 通过后,启用自签名证书的使用
--server-name SERVER_NAME None 设置服务器的主机名
--no-gradio-queue None False 禁用gradio队列;导致网页使用http请求而不是websockets;是早期版本中的默认值
--gradio-allowed-path None None 将路径添加到Gradio的allowed_paths;使从中提供文件成为可能
--no-hashing None False 禁用检查点的SHA-256散列,以帮助加载性能
--skip-version-check None False 不要检查 torch and xformers 版本
--skip-python-version-check None False 不要检查Python的版本
--skip-torch-cuda-test None False 不要检查CUDA是否能够正常工作
--skip-install None False 跳过软件包的安装
PERFORMANCE
--xformers None False 启用xformers进行交叉注意力层
--force-enable-xformers None False 启用xformers进行交叉注意力层,无论检查代码是否认为您可以运行它; 如果无法工作,请勿进行错误报告.
--xformers-flash-attention None False 启用带有Flash Attention的xformers以提高可重现性(仅支持 SD2.x 或变体)
--opt-sdp-attention None False 启用缩放点积交叉注意力层优化;需要 PyTorch 2.*
--opt-sdp-no-mem-attention False None 在没有内存高效注意力的情况下启用缩放点产品交叉注意层优化,使图像生成具有确定性;需要 PyTorch 2.*
--opt-split-attention None False 强制启用Doggettx的交叉注意力层优化。默认情况下,它对启用CUDA的系统是打开的
--opt-split-attention-invokeai None False Force-enables InvokeAI的交叉注意力层优化。默认情况下,当CUDA不可用时,它处于打开状态
--opt-split-attention-v1 None False 启用旧版本的拆分注意力优化,该优化不会消耗所有可用的VRAM
--opt-sub-quad-attention None False 启用内存高效的 sub-quadratic 交叉注意力层优化
--sub-quad-q-chunk-size SUB_QUAD_Q_CHUNK_SIZE 1024 查询块大小,用于亚四分层交叉注意力层优化
--sub-quad-kv-chunk-size SUB_QUAD_KV_CHUNK_SIZE None 用于 sub-quadratic 交叉注意力层优化的KV块大小
--sub-quad-chunk-threshold SUB_QUAD_CHUNK_THRESHOLD None 使用分块的 sub-quadratic 交叉注意力层优化的VRAM阈值百分比
--opt-channelslast None False 启用4d张量的替代布局,可能 only 在具有张量内核(16xx及更高)的Nvidia卡上实现更快的推断
--disable-opt-split-attention None False 强制禁用交叉注意力层优化
--disable-nan-check None False 不要检查生成的 images/latent 空间是否有nans;对于在CI中没有检查点的情况下运行很有用
--use-cpu {all, sd, interrogate, gfpgan, bsrgan, esrgan, scunet, codeformer} None 使用CPU作为指定模块的 torch 设备
--no-half None False 不要将模型切换到 16-bit floats
--precision {full,autocast} autocast 以这种精确度进行评估
--no-half-vae None False 不要将VAE模型切换到 16-bit floats.
--upcast-sampling None False 向上采样。没有效果--no-half。通常产生与--no-half相似的结果,在使用更少的内存的同时,性能更好
--medvram None False 启用Stable Diffusion 模型优化,以牺牲一些性能,以降低VRAM的使用率
--lowvram None False 启用Stable Diffusion 模型优化,为非常低的VRAM使用量牺牲大量速度
--lowram None False 将稳定的扩散检查点权重加载到VRAM而不是RAM
--always-batch-cond-uncond None False 禁用启用使用 --medvram--lowvram 保存内存的cond/uncond批处理
FEATURES
--autolaunch None False 启动时在系统的默认浏览器中打开Web UI URL
--theme None Unset 使用指定主题 (light or dark) 打开Web UI。如果未指定,则使用默认浏览器主题 (light or dark)
--use-textbox-seed None False 在UI中使用 seeds 文本框(没有 up/down,但可以输入 long seeds )
--disable-safe-unpickle None False 禁用检查PyTorch模型是否有恶意代码
--ngrok NGROK None ngrok authtoken,gradio --share 的替代品
--ngrok-region NGROK_REGION us ngrok应该开始的区域
--update-check None None 启动时,通知您的Web UI版本(commit)是否与当前主分支是最新的
--update-all-extensions None None 启动时,它会提取您已安装的所有扩展的最新更新
--reinstall-xformers None False 强制重新安装xformers。对升级很有用 - 但在升级后将其删除,否则您将永久重新安装xformers
--reinstall-torch None False 强制重新安装手电筒。对升级有用 - 但在升级后将其删除,否则您将永久重新安装torch
--tests TESTS False 运行测试以验证Web UI功能,有关更多详细信息,请参阅维基主题
--no-tests None False 即使指定了 --tests 选项,也不要运行测试
DEFUNCT OPTIONS
--show-negative-prompt None False 不再有效果
--deepdanbooru None False 不再有效果
--unload-gfpgan None False 不再有效果
--gradio-img2img-tool GRADIO_IMG2IMG_TOOL None 不再有效果
--gradio-inpaint-tool GRADIO_INPAINT_TOOL None 不再有效果
--gradio-queue None False 不再有效果

我们一直在努力

apachecn/AiLearning

【布客】中文翻译组