ComfyUI v0.12.2 发布——新增 4B ACE Step 1.5 模型支持,修复多项稳定
ComfyUI v0.12.2 发布——新增 4B ACE Step 1.5 模型支持,修复多项稳定性问题!
⚙️ 更新亮点一:新增 4B ACE Step 1.5 模型支持
v0.12.2 中最重磅的更新是支持了 ACE Step 1.5 的 4B LM 模型。
在此前版本中,ComfyUI 已支持 Qwen3_2B 系列相关模型。本次更新在 comfy/text_encoders/ace15.py 与 comfy/text_encoders/llama.py 文件中,正式扩展了对更大参数量模型 —— Qwen3_4B_ACE15_lm 的支持。
新增内容包括:
• 新增模型类:Qwen3_4B_ACE15_lm
• 新增配置类:Qwen3_4B_ACE15_lm_Config
• 更新 ACE15TEModel 逻辑,可根据参数 lm_model 自动加载 2B 或 4B 模型。
• 在切换不同 LM 模型时,内部常数与显存估算逻辑自动调整。
此外,comfy/sd.py 和 comfy/supported_models.py 亦同步适配,能够自动检测并加载 Qwen3_2B 或 Qwen3_4B 模型,从而实现双版本自动识别与切换支持。
#大模型# #福大大架构师每日一题#
⚙️ 更新亮点一:新增 4B ACE Step 1.5 模型支持
v0.12.2 中最重磅的更新是支持了 ACE Step 1.5 的 4B LM 模型。
在此前版本中,ComfyUI 已支持 Qwen3_2B 系列相关模型。本次更新在 comfy/text_encoders/ace15.py 与 comfy/text_encoders/llama.py 文件中,正式扩展了对更大参数量模型 —— Qwen3_4B_ACE15_lm 的支持。
新增内容包括:
• 新增模型类:Qwen3_4B_ACE15_lm
• 新增配置类:Qwen3_4B_ACE15_lm_Config
• 更新 ACE15TEModel 逻辑,可根据参数 lm_model 自动加载 2B 或 4B 模型。
• 在切换不同 LM 模型时,内部常数与显存估算逻辑自动调整。
此外,comfy/sd.py 和 comfy/supported_models.py 亦同步适配,能够自动检测并加载 Qwen3_2B 或 Qwen3_4B 模型,从而实现双版本自动识别与切换支持。
#大模型# #福大大架构师每日一题#
全部评论
相关推荐
小浪_Coding:工作只是谋生的手段 而不是相互比较和歧视 点赞 评论 收藏
分享
