写给设计师的ComfyUI教程一:认知篇
写给设计师的ComfyUI教程一:认知篇
本文主要回答几个问题:MJ和SD都有什么区别?ComfyUI工作流是什么?为什么AI需要"可控"?AI这么强大还需要学习3D吗?设计师不学习AI会被市场淘汰吗?
本篇主要介绍ComfyUI是什么,以及它与传统的WebUI以及Midjourney的区别。相信读完本篇,大家都能对这些AI工具有初步了解。
AI绘画工具概述
市面上的AI绘画工具主要分为两类:Midjourney(简称MJ)和Stable Diffusion(简称SD)。
Midjourney
- 优点:学习简单,上手可用,出图美学水准较高。
- 缺点:收费,出图可控性较弱,只能在线生成。
Stable Diffusion 大模型
- 优点:开源,免费,本地可部署,可控性很强,可商业落地。
- 缺点:环境配置复杂,需要一定学习成本。
值得一提的是,Flux大模型虽然刚刚推出,但效果已经非常出色,其效果甚至可以媲美MJ的精美程度。然而,由于是新推出的模型,其生态尚未完善,但未来发展值得期待。
MJ与SD的可控性对比
以生成孙悟空形象为例,MJ生成的图像(上图)总是像猩猩,因为在西方文化中,悟空的形象类似于金刚之类的生物。而Flux结合Lora控图生成的效果(下图)则明显更好,细节质感和美术表现都优于MJ。
WebUI与ComfyUI的区别
WebUI可以理解为更专业的MJ版本,功能定制化程度高,适合单一功能的使用。而ComfyUI采用节点式运行方式,通过调用各种节点来实现所需功能,灵活性更高,适合复杂工作流程的搭建。
ComfyUI工作流
ComfyUI工作流更像一个乐高积木,可以根据需要拼接不同的功能节点。例如,可以使用抠图节点把产品抠出来,然后使用合图节点融入新场景,最后使用IClight节点重新打光并高清放大。
在学习成本方面,WebUI学习成本低,易上手。而ComfyUI虽然上手较难,但一旦掌握,灵活性很高。
AI的可控性
可控性是对AI生成结果的一种约束。例如,通过上传参考图让AI生成类似风格或构图的图像,这就是最常见的可控性应用。
在SD/Flux中,重要的控制功能包括:
- LORA:用于微调大模型的低秩适应技术,可以通过少量特定风格图片训练成LORA,控制生成特定风格的图像。
- IP-Adapter:控制风格迁移的利器,可以把一张图的风格迁移到另一张图上。
- Controlnet:控制构图的技术,通过线稿图、深度图等方法控制图像构图。
AI与3D的关系
AI是辅助技能,学习更多技能是为了提高工作效率。在实际工作中,AI可以快速生成多张不同风格的图像供选择,而PS或C4D则负责最终的细化和落地。
未来设计师是否需要学习AI
设计师需要紧跟设计趋势,持续学习新技术。AI不会完全替代设计师,而是作为辅助工具提高工作效率。