最近两年AI绘画工具爆发式增长,但大多数都需要联网使用或者收费。ComfyUI作为一款完全免费的本地化工具,凭借其独特的节点式工作流和低硬件门槛,正在成为技术爱好者们的新宠。我花了三天时间在自己的游戏本(RTX 3060显卡)上完整部署了这套系统,实测生成一张512x512的图片仅需4-7秒,效果完全不输主流在线平台。
ComfyUI最大的优势在于它的灵活性。你可以像搭积木一样,通过连接不同的功能节点来构建专属工作流。比如把"文生图"节点和"图片放大"节点串联,就能实现一键生成高清大图。更棒的是,所有操作都在本地完成,既不用担心隐私泄露,也不用被网络速度限制创作灵感。
虽然ComfyUI支持CPU模式,但实测用集显生成一张图可能需要5分钟以上。建议至少配备NVIDIA GTX 1060及以上显卡,显存6GB起步。我的RTX 3060笔记本在生成768x768图片时,显存占用会达到5.8GB左右。可以通过以下命令检查显卡信息:
bash复制nvidia-smi
如果看到类似这样的输出,说明驱动安装正常:
code复制+-----------------------------------------------------------------------------+
| NVIDIA-SMI 515.65.01 Driver Version: 516.94 CUDA Version: 11.7 |
|-------------------------------+----------------------+----------------------+
| GPU Name TCC/WDDM | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 NVIDIA GeForce ... WDDM | 00000000:01:00.0 On | N/A |
| N/A 45C P8 10W / N/A | 689MiB / 6144MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
推荐使用Python 3.10版本,这是目前最稳定的选择。我尝试过3.11版本会遇到一些依赖冲突。安装时务必勾选"Add Python to PATH"选项。安装完成后,在CMD中运行:
bash复制python --version
pip --version
如果显示版本号而非"不是内部命令",说明环境变量配置正确。建议顺手升级下pip:
bash复制python -m pip install --upgrade pip
官方压缩包约1.4GB,解压后约3.2GB。我专门测试了不同存储设备的速度:
解压后目录结构如下:
code复制ComfyUI_windows_portable/
├── ComfyUI/
│ ├── models/
│ ├── custom_nodes/
│ └── ...其他系统文件
├── run_cpu.bat
└── run_nvidia_gpu.bat
GPU模式启动:
直接双击run_nvidia_gpu.bat,会看到CMD窗口输出类似信息:
code复制...
Using seed: 123456
Loading model: v1-5-pruned-emaonly.safetensors
Model loaded in 2.4s
Running on local URL: http://127.0.0.1:8188
CPU模式启动注意事项:
如果必须使用CPU模式,建议修改run_cpu.bat文件,在最后添加--cpu参数:
bat复制@echo off
python main.py --cpu
pause
官方推荐的模型目录结构:
code复制models/
├── checkpoints/ # 主模型(.ckpt/.safetensors)
├── vae/ # 变分自编码器
├── loras/ # LoRA微调模型
├── embeddings/ # 文本嵌入
└── upscale_models/ # 超分辨率模型
我整理了常见模型的下载来源:
v1-5-pruned-emaonly.safetensors(约4GB)让我们搭建一个最简单的文生图流程:
点击"Queue Prompt"后,可以在ComfyUI/output目录找到生成结果。我测试时发现,同样的参数下,不同模型产出风格差异很大,建议多尝试几个基础模型。
推荐使用"AIGODLIKE-COMFYUI-TRANSLATION"项目:
custom_nodes目录| 插件名称 | 功能描述 | 安装方式 |
|---|---|---|
| ComfyUI-Manager | 插件管理系统 | GitHub直接下载 |
| Impact-Pack | 人脸修复/背景移除等 | 通过管理器安装 |
| WAS Node Suite | 200+新节点增强 | 手动安装 |
| Efficiency Nodes | 优化采样效率 | 通过管理器安装 |
安装插件后遇到节点不显示的问题时,可以尝试:
在extra_model_paths.yaml中添加以下配置可提升显存利用率:
yaml复制cuda:
deterministic: false
benchmark: true
allow_tf32: true
实测在RTX 3060上能使生成速度提升约15%。但注意如果出现显存不足,需要把allow_tf32改为false。
问题1:Torch not compiled with CUDA enabled
解决方法:重新安装对应版本的PyTorch:
bash复制pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117
问题2:生成图片全黑
可能原因:
通过"AnimateDiff"插件可以实现:
实测生成3秒动画(24fps)约需8分钟,显存占用接近满载。
虽然ComfyUI主要面向推理,但可以通过以下方式准备训练:
训练过程中可以通过任务管理器监控GPU利用率,正常应该在90%以上波动。