问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

AI绘画入门教程:从零基础到精通,手把手教你掌握AI绘画技巧

创作时间:
2025-01-21 18:31:10
作者:
@小白创作中心

AI绘画入门教程:从零基础到精通,手把手教你掌握AI绘画技巧

AI绘画的出现,让越来越多的人可以轻松画出美丽的插画作品。本文将从零基础入门到精通,详细介绍AI绘画的关键步骤、软件部署方式、操作技巧以及如何使用ChatGPT辅助生成提示词。无论你是AI绘画初学者还是有一定基础的用户,都能从本文中获得实用的指导和建议。

AI绘画入门关键步骤

第一步:下载软件

首先,我们需要下载一个非常好用的AI绘画软件。AI绘画功能也十分强大,能够帮助零基础小白快速生成精美的作品。

第二步:准备素材

在使用AI绘画软件之前,我们需要准备一些素材。如果您想要创作人物插画,可提前准备好所需要的角色形象、服饰、背景等元素。如果您想要创作风景插画,可准备好所需的城市或自然景色等元素。这些素材将成为我们创作作品的重要基础。

第三步:选择AI绘画功能

打开软件后,在页面上能够看到AI绘画选项。点击AI绘画之后,会弹出AI绘画的选择界面。在此菜单中,我们可以根据自己的需求,选择不同的AI绘画分类,例如人物、风景、卡通等。然后选择AI绘画素材。

第四步:调整参数

在选择了所需的素材后,我们需要根据实际需求调整一些参数。比如说,我们可以调整线条或色彩的明暗度,来达到更逼真、炫酷或柔和的效果。设置好参数后,点击“生成”按钮,等待片刻,AI就能帮助我们生成一张美丽的插画作品。

第五步:保存作品

在成功生成插画作品之后,我们需要保存缩小版到本地。在这个过程中,我们可以选择画质、尺寸、格式等信息。推荐选择高清晰度和较大的尺寸,让我们的作品更加生动,满足所需输出比例。

人工智能技术为画师们提供了更简单、更快捷的画画方法,使得任何人都可以轻松地创造出自己想要的插画作品。在使用AI绘画软件时,我们需要提前准备好素材,根据实际需求调整AI的参数,然后保存作品。另外,不断地学习和尝试,能够帮助我们不断优化自己的作品,成为更加优秀的艺术家。

Stable Diffusion部署安装

Stable Diffusion无疑是最近最火的AI绘画工具之一,以下是三种部署安装方式:

1. 云端部署

通过Google Colab进行云端部署,推荐将成熟的Stable Diffusion Colab项目复制到自己的Google云端硬盘运行,省去配置环境麻烦。这种部署方式的优点是:不吃本机硬件,在有限时间段内,可以免费使用Google Colab强大的硬件资源,通常能给到15G的GPU算力,出图速度非常快。缺点是:免费GPU使用时长不固定,通常情况下一天有几个小时的使用时长,如果需要更长时间使用,可以订阅Colab服务。

2. 本地部署

相较于Google Colab云端部署,本地部署Stable Diffusion的可扩展性更强,可自定义安装需要的模型和插件,隐私性和安全性更高,自由度也更高,而且完全免费。当然缺点是对本机硬件要求高,Windows需要NVIDIA显卡,8G以上显存,16G以上内存。Mac需要M1/M2芯片才可运行。

3. 本机安装DiffusionBee

如果觉得云端部署和本地部署比较繁琐,或对使用要求没有那么高,那就试下最简单的一键安装方式。下载Diffusionbee应用:diffusionbee.com/download。优点是方便快捷,缺点是扩展能力差(可以安装大模型,无法进行插件扩展,如ControlNet)。

AI绘画工具的操作技巧

1. Stable Diffusion基础操作

Stable Diffusion WebUI的操作界面主要分为:模型区域、功能区域、参数区域、出图区域。

txt2img(文生图)重点参数介绍:

  • 正向提示词:描述图片中希望出现的内容
  • 反向提示词:描述图片中不希望出现的内容
  • Sampling method:采样方法,推荐选择Euler a或DPM++系列,采样速度快
  • Sampling steps:迭代步数,数值越大图像质量越好,生成时间也越长,一般控制在30-50就能出效果
  • Restore faces:可以优化脸部生成
  • Width/Height:生成图片的宽高,越大越消耗显存,生成时间也越长,一般方图512x512,竖图512x768,需要更大尺寸,可以到Extras功能里进行等比高清放大
  • CFG:提示词相关性,数值越大越相关,数值越小越不相关,一般建议7-12区间
  • Batch count/Batch size:生成批次和每批数量,如果需要多图,可以调整下每批数量
  • Seed:种子数,-1表示随机,相同的种子数可以保持图像的一致性,如果觉得一张图的结构不错,但对风格不满意,可以将种子数固定,再调整prompt生成

img2img(图生图)重点参数介绍:

  • Resize mode:缩放模式,Just resize只调整图片大小,如果输入与输出长宽比例不同,图片会被拉伸。Crop and resize裁剪与调整大小,如果输入与输出长宽比例不同,会以图片中心向四周,将比例外的部分进行裁剪。Resize and fill调整大小与填充,如果输入与输出分辨率不同,会以图片中心向四周,将比例内多余的部分进行填充
  • Mask blur:蒙版模糊度,值越大与原图边缘的过度越平滑,越小则边缘越锐利
  • Mask mode:蒙版模式,Inpaint masked只重绘涂色部分,Inpaint not masked重绘除了涂色的部分
  • Masked Content:蒙版内容,fill用其他内容填充,original在原来的基础上重绘
  • Inpaint area:重绘区域,Whole picture整个图像区域,Only masked只在蒙版区域
  • Denoising strength:重绘幅度,值越大越自由发挥,越小越和原图接近

2. ControlNet

安装完ControlNet后,在txt2img和img2img参数面板中均可以调用ControlNet。操作说明:

  • Enable:启用ControlNet
  • Low VRAM:低显存模式优化,建议8G显存以下开启
  • Guess mode:猜测模式,可以不设置提示词,自动生成图片
  • Preprocessor:选择预处理器主要有OpenPose、Canny、HED、Scribble、MIsd.Seg、Normal Map、Depth
  • Model:ControlNet模型,模型选择要与预处理器对应
  • Weight:权重影响,使用ControlNet生成图片的权重占比影响
  • Guidance strength(T):引导强度,值为1时,代表每选代1步就会被ControlNet引导1次
  • Annotator resolution:数值越高,预处理图像越精细
  • Canny low/high threshold:控制最低和最高采样深度
  • Resize mode:图像大小模式,默认选择缩放至合适
  • Canvas width/height:画布宽高
  • Create blank canvas:创建空白画布
  • Preview annotator result:预览注释器结果,得到一张ControlNet模型提取的特征图片
  • Hide annotator result:隐藏预览图像窗

3. LORA模型训练说明

LORA模型具有训练速度快,模型大小适中(100MB左右),配置要求低(8G显存),能用少量图片训练出风格效果的优势。

训练步骤:

  1. 数据预处理:在Stable Diffusion WebUI功能面板中,选择Train训练功能,点选Preprocess images预处理图像功能。在Source directory栏填入你要训练的图片存放目录,在Destination directory栏填入预处理文件输出目录。width和height为预处理图片的宽高,默认为512x512,建议把要训练的图片大小统一改成这个尺寸,提升处理速度。勾选Auto focal point crop自动焦点裁剪,勾选Use deepbooru for caption自动识别图中的元素并打上标签。点击Preprocess进行图片预处理。

  2. 配置模型训练参数:在这里可以将模型训练放到Google Colab上进行,调用Colab的免费15G GPU将大大提升模型训练速度。LoRA微调模型训练工具我推荐使用Kohya,运行KohyaColab:https://colab.research.google.com/github/Linaqruf/kohyatrainer/blob/main/fast-kohya-trainer.ipynb。配置训练参数:先在content目录建立training_dir/training_data目录,将步骤1中的预处理文件上传至该数据训练目录。然后配置微调模型命名和数据训练目录,在Download Pretrained Model栏配置需要参考的预训练模型文件。其余的参数可以根据需要调整设置。

  3. 训练模型:参数配置完成后,运行程序即可进行模型训练。训练完的模型将被放到training dir/output目录,我们下载safetensors文件格式的模型,存放到stable-diffusion-webui/models/Lora目录中即可调用该模型。由于直接从Colab下载速度较慢,另外断开Colab连接后也将清空模型文件,这里建议在Extras中配置huggingface的Write Token,将模型文件上传到huggingface中,再从huggingface File中下载,下载速度大大提升,文件也可进行备份。

4. Prompt语法技巧

文生图模型的精髓在于Prompt提示词,如何写好Prompt将直接影响图像的生成质量。

提示词结构化:

  • 画面画风:主要是大模型或LORA模型的Tag、正向画质词、画作类型等
  • 画面主体:画面核心内容、主体人/事/物/景、主体特征/动作等
  • 画面细节:场景细节、人物细节、环境灯光、画面构图等
  • 风格参考:艺术风格、渲染器、Embedding Tag等

提示词语法:

  • 提示词排序:越前面的词汇越受AI重视,重要事物的提示词放前面
  • 增强/减弱:(提示词:权重数值),默认1,大于1加强,低于1减弱。如(doctor:1.3)
  • 混合:提示词|提示词,实现多个要素混合,如[red blue] hair红蓝色头发混合
    • 和 AND:用于连接短提示词,AND两端要加空格
  • 分步渲染:[提示词A:提示词B:数值],先按提示词A生成,在设定的数值后朝提示词B变化。如[dog🐱30]前30步画狗后面的画猫,[dog🐱0.9]前面90%画狗后面10%画猫
  • 正向提示词:masterpiece,best quality等画质词,用于提升画面质量
  • 反向提示词:nsfw, bad hands, missing fingers…,用于不想在画面中出现的内容
  • Emoji:支持emoji,如形容表情,当修饰手

5. ChatGPT辅助生成提示词

我们也可以借助ChatGPT帮助我们生成提示词参考。给ChatGPT一段示例参考:/guides/using-openai-chat-gpt-to-write-stable-diffusion.prompts,根据参考生成Prompts,再添加细节润色。

6. Stable Diffusion全中文环境配置

在实际使用中,我们还可以把Stable Diffusion配置成全中文环境,这将大大增加操作友好度。全中文环境包括了Stable Diffusion WebUI的汉化和Prompt支持中文输入。

Stable Diffusion WebUI汉化:

Prompt中文输入:

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号