AI绘画入门教程:从零基础到精通,手把手教你掌握AI绘画技巧
AI绘画入门教程:从零基础到精通,手把手教你掌握AI绘画技巧
AI绘画的出现,让越来越多的人可以轻松画出美丽的插画作品。本文将从零基础入门到精通,详细介绍AI绘画的关键步骤、软件部署方式、操作技巧以及如何使用ChatGPT辅助生成提示词。无论你是AI绘画初学者还是有一定基础的用户,都能从本文中获得实用的指导和建议。
AI绘画入门关键步骤
第一步:下载软件
首先,我们需要下载一个非常好用的AI绘画软件。AI绘画功能也十分强大,能够帮助零基础小白快速生成精美的作品。
第二步:准备素材
在使用AI绘画软件之前,我们需要准备一些素材。如果您想要创作人物插画,可提前准备好所需要的角色形象、服饰、背景等元素。如果您想要创作风景插画,可准备好所需的城市或自然景色等元素。这些素材将成为我们创作作品的重要基础。
第三步:选择AI绘画功能
打开软件后,在页面上能够看到AI绘画选项。点击AI绘画之后,会弹出AI绘画的选择界面。在此菜单中,我们可以根据自己的需求,选择不同的AI绘画分类,例如人物、风景、卡通等。然后选择AI绘画素材。
第四步:调整参数
在选择了所需的素材后,我们需要根据实际需求调整一些参数。比如说,我们可以调整线条或色彩的明暗度,来达到更逼真、炫酷或柔和的效果。设置好参数后,点击“生成”按钮,等待片刻,AI就能帮助我们生成一张美丽的插画作品。
第五步:保存作品
在成功生成插画作品之后,我们需要保存缩小版到本地。在这个过程中,我们可以选择画质、尺寸、格式等信息。推荐选择高清晰度和较大的尺寸,让我们的作品更加生动,满足所需输出比例。
人工智能技术为画师们提供了更简单、更快捷的画画方法,使得任何人都可以轻松地创造出自己想要的插画作品。在使用AI绘画软件时,我们需要提前准备好素材,根据实际需求调整AI的参数,然后保存作品。另外,不断地学习和尝试,能够帮助我们不断优化自己的作品,成为更加优秀的艺术家。
Stable Diffusion部署安装
Stable Diffusion无疑是最近最火的AI绘画工具之一,以下是三种部署安装方式:
1. 云端部署
通过Google Colab进行云端部署,推荐将成熟的Stable Diffusion Colab项目复制到自己的Google云端硬盘运行,省去配置环境麻烦。这种部署方式的优点是:不吃本机硬件,在有限时间段内,可以免费使用Google Colab强大的硬件资源,通常能给到15G的GPU算力,出图速度非常快。缺点是:免费GPU使用时长不固定,通常情况下一天有几个小时的使用时长,如果需要更长时间使用,可以订阅Colab服务。
2. 本地部署
相较于Google Colab云端部署,本地部署Stable Diffusion的可扩展性更强,可自定义安装需要的模型和插件,隐私性和安全性更高,自由度也更高,而且完全免费。当然缺点是对本机硬件要求高,Windows需要NVIDIA显卡,8G以上显存,16G以上内存。Mac需要M1/M2芯片才可运行。
3. 本机安装DiffusionBee
如果觉得云端部署和本地部署比较繁琐,或对使用要求没有那么高,那就试下最简单的一键安装方式。下载Diffusionbee应用:diffusionbee.com/download。优点是方便快捷,缺点是扩展能力差(可以安装大模型,无法进行插件扩展,如ControlNet)。
AI绘画工具的操作技巧
1. Stable Diffusion基础操作
Stable Diffusion WebUI的操作界面主要分为:模型区域、功能区域、参数区域、出图区域。
txt2img(文生图)重点参数介绍:
- 正向提示词:描述图片中希望出现的内容
- 反向提示词:描述图片中不希望出现的内容
- Sampling method:采样方法,推荐选择Euler a或DPM++系列,采样速度快
- Sampling steps:迭代步数,数值越大图像质量越好,生成时间也越长,一般控制在30-50就能出效果
- Restore faces:可以优化脸部生成
- Width/Height:生成图片的宽高,越大越消耗显存,生成时间也越长,一般方图512x512,竖图512x768,需要更大尺寸,可以到Extras功能里进行等比高清放大
- CFG:提示词相关性,数值越大越相关,数值越小越不相关,一般建议7-12区间
- Batch count/Batch size:生成批次和每批数量,如果需要多图,可以调整下每批数量
- Seed:种子数,-1表示随机,相同的种子数可以保持图像的一致性,如果觉得一张图的结构不错,但对风格不满意,可以将种子数固定,再调整prompt生成
img2img(图生图)重点参数介绍:
- Resize mode:缩放模式,Just resize只调整图片大小,如果输入与输出长宽比例不同,图片会被拉伸。Crop and resize裁剪与调整大小,如果输入与输出长宽比例不同,会以图片中心向四周,将比例外的部分进行裁剪。Resize and fill调整大小与填充,如果输入与输出分辨率不同,会以图片中心向四周,将比例内多余的部分进行填充
- Mask blur:蒙版模糊度,值越大与原图边缘的过度越平滑,越小则边缘越锐利
- Mask mode:蒙版模式,Inpaint masked只重绘涂色部分,Inpaint not masked重绘除了涂色的部分
- Masked Content:蒙版内容,fill用其他内容填充,original在原来的基础上重绘
- Inpaint area:重绘区域,Whole picture整个图像区域,Only masked只在蒙版区域
- Denoising strength:重绘幅度,值越大越自由发挥,越小越和原图接近
2. ControlNet
安装完ControlNet后,在txt2img和img2img参数面板中均可以调用ControlNet。操作说明:
- Enable:启用ControlNet
- Low VRAM:低显存模式优化,建议8G显存以下开启
- Guess mode:猜测模式,可以不设置提示词,自动生成图片
- Preprocessor:选择预处理器主要有OpenPose、Canny、HED、Scribble、MIsd.Seg、Normal Map、Depth
- Model:ControlNet模型,模型选择要与预处理器对应
- Weight:权重影响,使用ControlNet生成图片的权重占比影响
- Guidance strength(T):引导强度,值为1时,代表每选代1步就会被ControlNet引导1次
- Annotator resolution:数值越高,预处理图像越精细
- Canny low/high threshold:控制最低和最高采样深度
- Resize mode:图像大小模式,默认选择缩放至合适
- Canvas width/height:画布宽高
- Create blank canvas:创建空白画布
- Preview annotator result:预览注释器结果,得到一张ControlNet模型提取的特征图片
- Hide annotator result:隐藏预览图像窗
3. LORA模型训练说明
LORA模型具有训练速度快,模型大小适中(100MB左右),配置要求低(8G显存),能用少量图片训练出风格效果的优势。
训练步骤:
数据预处理:在Stable Diffusion WebUI功能面板中,选择Train训练功能,点选Preprocess images预处理图像功能。在Source directory栏填入你要训练的图片存放目录,在Destination directory栏填入预处理文件输出目录。width和height为预处理图片的宽高,默认为512x512,建议把要训练的图片大小统一改成这个尺寸,提升处理速度。勾选Auto focal point crop自动焦点裁剪,勾选Use deepbooru for caption自动识别图中的元素并打上标签。点击Preprocess进行图片预处理。
配置模型训练参数:在这里可以将模型训练放到Google Colab上进行,调用Colab的免费15G GPU将大大提升模型训练速度。LoRA微调模型训练工具我推荐使用Kohya,运行KohyaColab:https://colab.research.google.com/github/Linaqruf/kohyatrainer/blob/main/fast-kohya-trainer.ipynb。配置训练参数:先在content目录建立training_dir/training_data目录,将步骤1中的预处理文件上传至该数据训练目录。然后配置微调模型命名和数据训练目录,在Download Pretrained Model栏配置需要参考的预训练模型文件。其余的参数可以根据需要调整设置。
训练模型:参数配置完成后,运行程序即可进行模型训练。训练完的模型将被放到training dir/output目录,我们下载safetensors文件格式的模型,存放到stable-diffusion-webui/models/Lora目录中即可调用该模型。由于直接从Colab下载速度较慢,另外断开Colab连接后也将清空模型文件,这里建议在Extras中配置huggingface的Write Token,将模型文件上传到huggingface中,再从huggingface File中下载,下载速度大大提升,文件也可进行备份。
4. Prompt语法技巧
文生图模型的精髓在于Prompt提示词,如何写好Prompt将直接影响图像的生成质量。
提示词结构化:
- 画面画风:主要是大模型或LORA模型的Tag、正向画质词、画作类型等
- 画面主体:画面核心内容、主体人/事/物/景、主体特征/动作等
- 画面细节:场景细节、人物细节、环境灯光、画面构图等
- 风格参考:艺术风格、渲染器、Embedding Tag等
提示词语法:
- 提示词排序:越前面的词汇越受AI重视,重要事物的提示词放前面
- 增强/减弱:(提示词:权重数值),默认1,大于1加强,低于1减弱。如(doctor:1.3)
- 混合:提示词|提示词,实现多个要素混合,如[red blue] hair红蓝色头发混合
- 和 AND:用于连接短提示词,AND两端要加空格
- 分步渲染:[提示词A:提示词B:数值],先按提示词A生成,在设定的数值后朝提示词B变化。如[dog🐱30]前30步画狗后面的画猫,[dog🐱0.9]前面90%画狗后面10%画猫
- 正向提示词:masterpiece,best quality等画质词,用于提升画面质量
- 反向提示词:nsfw, bad hands, missing fingers…,用于不想在画面中出现的内容
- Emoji:支持emoji,如形容表情,当修饰手
5. ChatGPT辅助生成提示词
我们也可以借助ChatGPT帮助我们生成提示词参考。给ChatGPT一段示例参考:/guides/using-openai-chat-gpt-to-write-stable-diffusion.prompts,根据参考生成Prompts,再添加细节润色。
6. Stable Diffusion全中文环境配置
在实际使用中,我们还可以把Stable Diffusion配置成全中文环境,这将大大增加操作友好度。全中文环境包括了Stable Diffusion WebUI的汉化和Prompt支持中文输入。
Stable Diffusion WebUI汉化:
- 安装中文扩展插件:点击Extensions选择Install from URL,输入https://github.com/VinsonLaro/stable-diffusion-webui-chinese,点击Install,并重启WebUI
- 切换到中文模式:在Settings面板中,将User interface中的Localization设置成Chinese,中文模式,重启WebUI即可切换到中文界面
Prompt中文输入:
- 下载提示词中文扩展插件:https://github.com/butaixianran/Stable-Difusion-Webui-Prompt-Translator,将项目作为zip文件下载,解压后放到stable-diffusion-webui/extensions目录中,重启WebUI
- 调用百度翻译API:去api.fanyi.baidu.com申请一个免费API Key,并将翻译服务开通。在管理控制台的开发者信息页中确认APP ID和密钥
- 在Stable Diffusion WebUI的Prompt Translator面板中,选择百度翻译引擎,并将申请的APPID和密钥填写进去,点击保存
- 使用:在Stable Diffusion WebUI页面顶部会出现一个翻译工具栏,我们在提示词输入框中输入中文,点击工具栏中的翻译就能自动把提示词替换成英文。