一个强大的基于节点的Stable Diffusion工作流图形用户界面,带有图表界面,用于可视化AI图像生成管道

GPL-3.0PythonComfyUIComfy-Org 101.4k Last Updated: January 26, 2026

ComfyUI:最强大的节点式扩散模型界面

概述

ComfyUI 是一个开源的、基于节点的图形用户界面 (GUI),它提供了处理扩散模型最强大、最模块化的方法。与传统的基于 Web 的界面不同,ComfyUI 采用基于节点的方法,允许用户通过相互连接的组件直观地构建和自定义其 AI 图像生成流程。

ComfyUI 由 comfyanonymous 创建,并于 2023 年 1 月在 GitHub 上发布,其开发目标是改进现有软件设计的用户界面。该项目此后已发展成为一个由 Comfy Org 管理的综合平台,拥有活跃的社区支持和定期更新。

核心功能和能力

基于节点的工作流系统

ComfyUI 的主要特点是其基于节点。每个节点都有一个功能,例如“加载模型”或“编写提示”。节点被连接起来形成一个称为工作流的控制流图。这种方法提供了几个关键优势:

  • 可视化编程:使用基于图/节点/流程图的界面设计和执行高级稳定扩散流程,无需编写任何代码。
  • 透明度:图像生成过程的每一步都是可见且可自定义的。
  • 可复现性:工作流的文件格式为 JSON,可以嵌入到生成的图像中。
  • 模块化:组件可以轻松重排、修改或替换。

模型支持和兼容性

ComfyUI 为各种 AI 模型提供了广泛的支持:

  • 稳定扩散模型:完全支持 SD1.x、SD2.x、SDXL 和 Stable Diffusion 3.5。
  • 高级模型:支持多种文本到图像模型,包括 Stable Diffusion、Flux 和腾讯的 Hunyuan-DiT,以及来自 Civitai 的自定义模型。
  • 专业工具:ControlNet、LoRA、VAE、CLIP 模型和自定义扩展。
  • 格式灵活性:可以加载 ckpt 和 safetensors:一体化检查点或独立的扩散模型、VAE 和 CLIP 模型。

性能优化

ComfyUI 包含许多性能增强功能:

  • 智能执行:仅重新执行工作流中在执行之间发生变化的部分。
  • 内存管理:智能内存管理:可以通过智能卸载,在 VRAM 低至 1GB 的 GPU 上自动运行大型模型。
  • 跨平台支持:支持所有操作系统和 GPU 类型(NVIDIA、AMD、Intel、Apple Silicon、Ascend)。
  • CPU 回退:即使没有 GPU,也可以通过 --cpu (慢) 工作。

技术架构

前后端分离

截至 2024 年 8 月 15 日,ComfyUI 已过渡到新的前端,该前端现已托管在单独的存储库中:ComfyUI Frontend。这种分离允许:

  • 独立开发周期
  • 更快的前端更新和错误修复
  • 更好的可维护性
  • 灵活的版本管理

发布周期

ComfyUI 遵循每周一发布的周期,但由于模型发布或代码库的大幅更改,此周期经常会发生变化。该项目维护三个相互关联的存储库以进行全面的开发管理。

安装和设置

ComfyUI 提供多种安装方法:

快速入门选项

  • 桌面应用程序:适用于 Windows 和 macOS,提供预配置的环境。
  • 便携式版本:独立的软件包,只需最少的设置。
  • 云平台:与 ThinkDiffusion 等服务集成,提供基于浏览器的访问。

手动安装

  • Python 要求:Python 3.13 支持良好。Python 3.14 可用,但您可能会遇到 torch 编译节点的问题。
  • PyTorch 支持:支持 torch 2.4 及以上版本,但某些功能和优化可能仅在新版本上可用。
  • 基于 Git 的安装:克隆存储库并配置模型路径。

工作流示例和用例

基本文本到图像生成

典型的 ComfyUI 工作流包括基本节点:

  • Checkpoint Loader:加载 AI 模型。
  • CLIP Text Encoder:将提示转换为模型可读的格式。
  • KSampler:执行扩散过程。
  • VAE Decoder:将潜在图像转换为可查看的格式。
  • Save Image:输出最终结果。

高级应用

  • 图像到图像转换:使用 AI 修改现有图像。
  • 图像修复和扩展:填充或扩展图像的某些部分。
  • ControlNet 集成:使用参考图像精确控制生成。
  • 视频生成:支持 Stable Video Diffusion 模型。
  • 批量处理:自动生成多张图像。

生态系统和扩展

ComfyUI Manager

ComfyUI-Manager 是一个旨在增强 ComfyUI 可用性的扩展。它提供了管理功能,用于安装、删除、禁用和启用 ComfyUI 的各种自定义节点。

自定义节点社区

截至 2024 年 12 月,已支持 1,674 个节点,社区贡献了创建以下专用扩展:

  • 动画和视频处理 (AnimateDiff)
  • 高级 AI 模型集成
  • 工作流自动化工具
  • 专业图像处理功能

专业集成

行业采用

2024 年 7 月,Nvidia 在其 RTX Remix 模组软件中宣布支持 ComfyUI,这表明其在专业工作流程中日益受到认可。

开放模型倡议

2024 年 8 月,Comfy Org 加入了由 Linux Foundation 创建的开放模型倡议,巩固了其在开源 AI 生态系统中的地位。

优点和注意事项

优势

  • 无与伦比的控制:生成过程的每个方面都可以自定义。
  • 透明度:对 AI 流程的完全可见性。
  • 可复现性:工作流可以保存、共享并精确复制。
  • 社区支持:活跃的开发者和用户生态系统。
  • 性能:针对各种硬件配置进行了优化。

学习曲线

与 Automatic1111 等其他扩散 UI 相比,ComfyUI 被认为更复杂。存在学习曲线,因为 ComfyUI 暴露了完整的扩散流程。然而,这种复杂性为愿意投入学习系统的用户提供了前所未有的创意控制。

入门

  1. 选择安装方法:在桌面应用程序、便携式版本或手动安装之间进行选择。
  2. 下载模型:将您的稳定扩散模型放置在适当的目录中。
  3. 加载示例工作流:从预构建的工作流开始,以了解系统。
  4. 实验和学习:随着您对系统的熟悉,逐渐构建更复杂的工作流。

结论

ComfyUI 代表了 AI 图像生成界面的范式转变,它优先考虑透明度、控制和模块化而非简洁性。ComfyUI 是运行稳定扩散最强大、最透明的方式之一。如果您重视控制而非便利性,它是首选。

对于寻求对其 AI 图像生成工作流进行最深层次控制的用户来说,ComfyUI 提供了一个无与伦比的平台,该平台随着快速发展的 AI 艺术和图像合成领域不断发展。

资源

  • GitHub 存储库https://github.com/Comfy-Org/ComfyUI
  • 官方文档:可通过项目存储库获取。
  • 社区支持:Matrix 空间和 Discord 社区。
  • 学习资源:示例工作流和社区教程。

Star History Chart