Skip to content

在 Apple Silicon 上安装并运行

Mac用户:请提供反馈,说明这些说明是否对您有效,以及是否有任何不清楚的地方,或者您的安装问题仍然存在,而这里目前没有提到

重要注意事项

目前,Web UI中的大多数功能在macOS上都能正常工作,最显著的例外是CLIP审问器和培训。虽然训练似乎确实有效,但它非常缓慢,并且消耗了过多的内存。可以使用CLIP interrogator,但它无法在macOS使用的GPU加速的情况下正常工作,因此默认配置将完全通过CPU运行(速度很慢)。

众所周知,大多数采样器在使用Stable Diffusion 2.0模型时工作,唯一的例外是PLMS采样器。macOS上具有GPU加速的生成图像通常应与具有相同设置和种子的CPU上生成的图像匹配或几乎匹配。

自动安装

新安装:

  1. 如果未安装Homebrew,请按照https://brew.sh上的说明进行安装。保持终端窗口打开,并按照“后续步骤”下的说明将Homebrew添加到您的PATH中。
  2. 打开一个新的终端窗口并运行brew install cmake protobuf rust python@3.10 git wget
  3. 通过运行克隆Web UI存储库git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
  4. 将您想要使用的Stable Diffusion 模型/检查点放入stable-diffusion-webui/models/Stable-diffusion。如果您没有,请参阅下面的下载Stable Diffusion 模型
  5. cd stable-diffusion-webui然后./webui.sh运行Web UI。将使用venv创建和激活Python虚拟环境,任何剩余的缺失依赖项将自动下载并安装。
  6. 要稍后重新启动Web UI进程,请再次运行./webui.sh。请注意,它不会自动更新Web UI;要更新,请在运行./webui.sh之前运行git pull

现有安装:

如果您有使用setup_mac.sh创建的Web UI的现有安装,请从stable-diffusion-webui文件夹中删除run_webui_mac.sh文件和repositories文件夹。然后运行git pull来更新Web UI,然后运行./webui.sh来运行它。

下载Stable Diffusion 模型

如果您没有任何模型可以使用,可以从Hugging Face下载Stable Diffusion 模型。要下载,请单击模型,然后单击Files and versions标题。查找带有“.ckpt”或“.safetensors”扩展名的文件,然后单击文件大小右侧的向下箭头下载它们。

一些流行的官方Stable Diffusion 模型是:

Stable Diffusion 2.0和2.1需要模型和配置文件,生成图像时需要将图像宽度和高度设置为768或更高:

对于配置文件,按住键盘上的选项键,然后单击此处下载v2-inference-v.yaml(它可能会下载为v2-inference-v.yaml.yml)。在Finder中选择该文件,然后转到菜单并选择File>Get Info。在出现的窗口中,选择文件名并将其更改为模型的文件名,除非文件扩展名.yaml而不是.ckpt,否则请按键盘上的return键(如果出现提示,请确认更改文件扩展名),并将其放置在与模型相同的文件夹中(例如,如果您下载了768-v-ema.ckpt模型,请将其重命名为768-v-ema.yaml,并将其与模型一起放入stablestable-diffusion-webui/models/Stable-diffusion)。

还提供Stable Diffusion 2.0深度模型512-depth-ema.ckpt)。通过按住键盘上的选项并单击此处下载v2-midas-inference.yaml配置文件,然后以与上述相同的方式用.yaml扩展名重命名,并将其与模型一起放入stable-diffusion-webui/models/Stable-diffusion。请注意,该模型适用于512宽/高或更高的图像尺寸,而不是768。

故障排除

Web UI无法启动:

如果您在尝试使用./webui.sh启动Web UI时遇到错误,请尝试从stable-diffusion-webui文件夹中删除repositoriesvenv文件夹,然后在再次运行./webui.sh之前使用git pull更新Web UI。

性能不佳:

目前,macOS上的GPU加速使用大量内存。如果性能不佳(如果使用任何采样器生成具有20步的512x512图像需要超过一分钟)

  • 尝试从--opt-split-attention-v1命令行选项(即./webui.sh --opt-split-attention-v1开始,看看是否有帮助。
  • 没什么区别吗?
    • 打开位于/应用程序/实用程序中的活动监视器应用程序,并检查内存选项卡下的内存压力图。生成图像时,内存压力以红色显示
    • 关闭Web UI进程,然后添加--medvram命令行选项(即./webui.sh --opt-split-attention-v1 --medvram)。
  • 使用该选项,性能仍然很差,记忆压力仍然很红?
    • 尝试--lowvram(即./webui.sh --opt-split-attention-v1 --lowvram)。
  • 使用任何采样器生成具有20个步骤的512x512图像仍然需要超过几分钟的时间?
    • 您可能需要关闭GPU加速。
      • 在Xcode中打开webui-user.sh
      • Change #export COMMANDLINE_ARGS="" to export COMMANDLINE_ARGS="--skip-torch-cuda-test --no-half --use-cpu all".

此处讨论/反馈:https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/5461


我们一直在努力

apachecn/AiLearning

【布客】中文翻译组