问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

ComfyUI 入门教程 -- 内置节点 3

创作时间:
作者:
@小白创作中心

ComfyUI 入门教程 -- 内置节点 3

引用
CSDN
1.
https://blog.csdn.net/weixin_46757087/article/details/144420001

高级节点

Load CLIP

加载CLIP模型,CLIP应用类型选择:

  • stable_diffusion: clip-l
  • stable_cascade: clip-g
  • sd3: t5/clip-g/clip-l
  • stable_audio: t5
  • mochi: t5
  • Itxv: t5

Load Diffusion Model

加载UNET模型,权重类型:

  • default
  • fp8_e4m3fn
  • fp8_e4m3fn_fast
  • fp8_e5m2
  1. default:
  • 通常指的是模型的原始精度,大多数情况下是FP32(单精度浮点数)或FP16(半精度浮点数)。
  • 具体取决于模型在训练时使用的精度。
  • default提供最高的数值精度,但内存占用也最大,计算速度相对较慢。
  1. fp8_e4m3fn:
  • 这是一种8位浮点数格式,具体来说是E4M3FN变体。
  • E4M3FN指的是:E4:4位指数(Exponent),M3:3位尾数(Mantissa),FN:指示浮点数表示法,包括正负无穷和NaN(Not a Number)。
  • fp8_e4m3fn比FP32或FP16占用更少的内存,并且可以加速计算。但是,由于精度降低,可能会引入一些数值误差,导致生成质量略微下降。
  1. fp8_e4m3fn_fast:
  • 这与fp8_e4m3fn相同,都是E4M3FN格式的8位浮点数。
  • _fast后缀通常表示它使用了更快的硬件指令或算法来进行类型转换或计算,以牺牲一些潜在的精度为代价。
  • 目标是在fp8_e4m3fn的基础上进一步提升速度。
  1. fp8_e5m2:
  • 这是另一种8位浮点数格式,具体来说是E5M2变体。
  • E5M2指的是:E5:5位指数(Exponent),M2:2位尾数(Mantissa)。
  • 相比fp8_e4m3fn,fp8_e5m2拥有更大的指数范围,但尾数精度更低。这使得fp8_e5m2能够表示更大范围的数值,但在表示精度上不如fp8_e4m3fn。在某些情况下,fp8_e5m2可能更适合处理具有较大动态范围的模型权重。

DualCLIPLoader

双CLIP加载器,应用类型选择:

  • sdxl
  • sd3
  • flux

sdxl: clip-l, clip-g
sd3: clip-l, clip-g 或 clip-l, t5 或 clip-g, t5
flux: clip-l, t5

DiffusersLoader

已弃用

TripleCLIPLoader

三CLIP加载器,适用于SD3,同时加载clip-g, clip-l, t5

ConditioningZeroOut

条件零化,生成无条件信号

ConditioningSetTimestepRange

在特定的时间步范围内应用conditioning,更精细地控制conditioning在扩散过程的哪个阶段起作用

CLIPTextEncodeSDXLRefiner

SDXL Refiner模型文本编码,ascore参数用于Aesthetic Score(美学分数)的条件控制,它允许你引导模型生成更符合特定美学评分的图像

CLIPTextEncodeSDXL

SDXL文本编码:

  • width:生成图像的目标宽度(以像素为单位)。
  • height:生成图像的目标高度(以像素为单位)。
  • crop_w:在编码conditioning之前,对内部生成的图像进行中心裁剪的宽度偏移量(可以为正或负)。通常设为0。
  • crop_h:在编码conditioning之前,对内部生成的图像进行中心裁剪的高度偏移量(可以为正或负)。通常设为0。
  • target_width:用于计算内部生成图像大小的宽度目标值,通常和width一致。
  • target_height:用于计算内部生成图像大小的高度目标值,通常和height一致。
  • text_g:clip_g编码的文本。
  • text_l:clip_l编码的文本。

CLIPTextEncodeSD3

SD3模型的文本编码:

  • clip_l:clip_l编码的文本
  • clip_g:clip_g编码的文本
  • t5xxl:t5xxl编码的文本
  • empty_padding:一个特殊的填充表示,用于在输入文本较短时进行填充,以适应模型对固定长度输入的需要

CLIPTextEncodeHunyuanDiT

HunyuanDiT模型文本编码,bert/mt5xl模型分别编码

CLIPTextEncodeFlux

flux文本编码,guidance调节引导强度,

FluxGuidance

条件转flux引导,并调节引导强度

ModelMergeSimple

合并模型1和2,当ratio为1时,保留1,0时保留2,其他值按比例合并

ModelMergeBlocks

分层融合模型,模型2的输入层/中间层/输出层按比例融合进模型1

ModelMergeSubtract

模型1减去模型2进行融合,multiplier减去的强度

ModelMergeAdd

将模型2添加到模型1中

Save Checkpoint

保存模型(可包含clip/vae)

CLIPMergeSimple

CLIP合并

CLIPMergeSubtract

CLIP1 - CLIP2

CLIPMergeAdd

CLIP 2加到CLIP 1中

CLIPSave

保存CLIP

VAESave

保存VAE

ModelSave

保存模型

ImageOnlyCheckpointSave

保存仅图像模型(只能图生图的模型)

ModelMergeSD1

SD1模型无缝集成到一个统一的框架中,1决定模型初始结构,2扩展模型能力:

  • time_embed:调整模型中的时间嵌入
  • label_emb:调整标签嵌入
  • input_blocks/middle_block/out_blocks:输入层/中间层/输出层
  • out:调整最终输出

ModelMergeSD2

同SD1

ModelMergeSDXL

同SD1

ModelMergeSD3_2B

SD3_2B模型合并

ModelMergeAuraflow

Auraflow模型合并

ModelMergeFlux1

Flux1模型合并

ModelMergeSD35_Large

SD35_Large模型合并

ModelMergeMochiPreview

MochiPreview模型合并

ModelMergeLTXV

LTXV模型合并

ModelSamplingDiscrete

模型采样离散,修改模型的采样行为:

  • eps
  • v_prediction
  • lcm
  • x0

ModelSamplingContinuousEDM

集成连续EDM(基于能量的扩散模型)采样技术来增强模型的采样能力:

  • v_prediction
  • edm_playground_v2.5
  • eps

ModelSamplingContinuousV

集成连续V

ModelSamplingStableCascade

shift调整采样分布,调整StableCascade采样能力

ModelSamplingSD3

调整SD3的采样能力

ModelSamplingAuraFlow

调整AuraFlow的采样能力

ModelSamplingFlux


调整Flux的采样能力

RescaleCFG

按系数缩放CFG范围

ModelSamplingLTXV

调整LTXV的采样能力

TomePatchModel

ratio:调整模型注意力机制

FreeU


大幅提高扩散模型样本质量的方法,https://github.com/ChenyangSi/FreeU
推荐参数:

  • SD1.4:(will be updated soon)b1:1.3,b2:1.4,s1:0.9,s2:0.2
  • SD1.5:(will be updated soon)b1:1.5,b2:1.6,s1:0.9,s2:0.2
  • SD2.1b1:1.4,b2:1.6,s1:0.9,s2:0.2
  • SDXLb1:1.3,b2:1.4,s1:0.9,s2:0.2 SDXL results
  • 推荐尝试参数范围b1:1 ≤ b1 ≤ 1.2b2:1.2 ≤ b2 ≤ 1.6s1:s1 ≤ 1s2:s2 ≤ 1

FreeU V2


https://github.com/WASasquatch/FreeU_Advanced

HyperTile

优化U-Net和VAE模型中的自我关注层的方法,https://github.com/tfernd/HyperTile

PatchModelAddDownscale (Kohya Deep Shrink)

通过对特定块进行缩小和放大操作来修改模型,控制分辨率并优化性能:

  • block_number 区块号
    此整数参数指定模型内将应用缩小操作的块号。默认值为3,最小值为1,最大值为32。调整此参数允许您针对模型的特定层进行缩小。
  • downscale_factor 缩减因子
    该浮点参数确定所选块将缩小的因子。默认值为2.0,最小值为0.1,最大值为9.0。较高的缩小因子将更显着地降低分辨率。
  • start_percent 起始百分比
    此浮点参数将缩小操作的起点定义为模型处理的百分比。默认值为0.0,范围为0.0到1.0。这使您可以控制模型执行期间开始缩小的时间。
  • end_percent 结束百分比
    此浮点参数将缩小操作的结束点设置为模型处理的百分比。默认值为0.35,范围为0.0到1.0。此参数可帮助您定义缩小效果的持续时间。
  • downscale_after_skip 跳过后缩小规模
    此布尔参数指示模型内的跳过连接后是否应发生缩小。默认值为True。设置此参数可帮助您控制与跳过连接相关的精确缩小点。
  • downscale_method 缩小方法
    该参数指定用于缩小尺寸的方法
  • bicubic
  • nearest-exact
  • bilinear
  • area
  • bislerp
  • upscale_method 放大方法
    该参数定义了缩小操作后用于放大的方法

PerturbedAttentionGuidance

扰动注意引导,自校正采样,https://github.com/sunovivid/Perturbed-Attention-Guidance

SaveAudio

保存音频

LoadAudio

加载音频

PreviewAudio

预览音频

SavelmageWebsocket

保存图像以用api获取

以下测试功能暂不介绍

BETA SkipLayerGuidanceSD3

BETA SkipLayerGuidanceDiT

BETA Create Hook LoRA

BETA Create Hook LoRA (MO)

BETA Create Hook Model as LoRA

BETA Create Hook Model as LoRA (MO)

BETA Set Hook Keyframes

BETA Create Hook Keyframe

BETA Create Hook Keyframes Interp.

BETA Create Hook Keyframes From Floats

BETA Combine Hooks [2]

BETA Combine Hooks [4]

BETA Combine Hooks [8]

BETA Cond Set Props

BETA Cond Set Props Combine

BETA Cond Set Default Combine

BETA Cond Pair Set Props

BETA Cond Pair Set Props Combine

BETA Cond Pair Set Default Combine

BETA Cond Pair Combine

BETA Set CLIP Hooks

BETA Timesteps Range


https://aiart.website/
交流群:839575876

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号