文章主题:Stable Diffusion, Midjourney, AI绘画软件, 保姆级教程

666AI工具大全,助力做AI时代先行者!

🎨🚀掌握未来艺术?看这里!-Stable Diffusion AI绘画新手指南🌟💻在AI技术的浪潮中,我们不只面临挑战,更有机会探索无限可能。对于那些对新兴AI绘画工具如Stable Diffusion感到困惑的新手来说,别担心,这份详尽教程就是你的艺术加速器!🚀✨👩‍💻首先,让我们深入了解这款神器——Stable Diffusion是如何工作的。它通过深度学习算法,模仿大师笔触,让你轻松创作出专业级别的画作。🎨💻🔥掌握基础操作?试试一键生成和编辑功能,只需简单的点击,就能调整色彩、风格甚至构图,让创新触手可及!🔥🎨📚想要更深入?别忘了查阅官方文档或在线教程,持续学习,你的技能将飞速提升!📚💻最后,记住,技术只是工具,关键在于你如何运用它。大胆尝试,享受创作的乐趣吧!🎉🌟#StableDiffusion #AI绘画教程 #艺术新手指南

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

🏆🎨文章大变身指南🔍📚👩‍💻探索SD保姆教程的秘密,解锁高效编程新境界💪💻🎓从基础原理到实战案例,带你领略ControlNet的全方位魅力💡🛠️📊详尽解析,无需担心冗长,15000字精华带你一目了然节省宝贵时间⏰📖👩‍🏫最后,别忘了掌握那些让ControlNet如虎添翼的小贴士🏆💻📚Ctrl + N,开启你的技术之旅,让我们一起在知识的海洋中畅游🌊🎓—在这个信息爆炸的时代,每一份精心打磨的文字都是智慧的结晶。SD保姆教程,不仅是一本详尽的编程指南,更是通往技术殿堂的敲门砖。我们专注于提供最实用、最具深度的内容,带你深入理解ControlNet的核心原理,通过丰富的案例展示,让你在实践中掌握技巧。图文并茂,15000字左右的文字量,看似繁重,实则精炼。我们深知时间的宝贵,所以每一段讲解都力求简洁明了,让你在20分钟内就能领略其精髓。无论你是编程新手还是资深开发者,ControlNet都能为你提供适用的解决方案。别忘了,每个成功的背后都有小技巧等待解锁。ControlNet的使用技巧,就像锦上添花,让技术之路更加顺畅。让我们一起,用ControlNet的力量,开启你的技术新篇章!—SEO优化提示:使用关键词如”SD保姆教程”、”ControlNet原理”、”实战案例”、”技术之旅”等,并适当增加行业术语和疑问句,以提高搜索引擎可见性和吸引读者兴趣。记得保持内容的连贯性和逻辑性哦!

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

Stable Diffusion的基本介绍

除了官方给出的解释。

它和MJ有什么区别?

为了更方便的理解,我们将Stable Diffusion与Midjourney做一个对比:

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

一、基础介绍

1. 提示词

提示词分为两个部分。

1)正向提示词

🌟当创作视觉艺术时,利用正面引导词是关键步骤!想象一幅画面或简洁的语句,然后将其转化为一个个关键词,以逗号分隔的形式,就是你赋予图像生命的力量源泉。例如,一抹夕阳、海边漫步,或是“宁静的湖畔”。每个细节都将成为生成独一无二图像的指令🌟

🌟重要提醒🌟:模型间的差异,指令与参数的不同,会直接影响到输出图像的多样性。别忘了,提示词的排列顺序对结果影响大!往往是,首位提示词的权重最重,末尾的则相对较小。每一步都至关重要,确保生成的图像符合你的预期哦!🎨

2)排除词

输入框内输入的标签内容就是你画面中不想要出现的东西,如:低质量的,缺手指,五官不齐等等。

下图给大家做一个案例演示。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

3)提示词拆分

🌟🎨图像创作秘籍大公开!想要随心所欲地把想法变成视觉盛宴吗?别急,这里有三个超实用技巧帮你解锁!✨1️⃣ 分解图像元素:每张图都是由无数小部分组成,学会从整体到细节逐一拆解,就像拼图一样。 từng碎片组合成完整的画面哦!🧩2️⃣ 洞察视觉联想:闭上眼睛,用心感受那些画面,想象它们在你眼前流动。这样能帮你更敏锐地捕捉到与提示词相关的瞬间。💭3️⃣ 创意词汇扩展:不要害怕用夸张或比喻来描述,有时候独特的话语能点亮你的图像故事。比如,“那道光,就像希望的箭矢。”🎯别让模糊的想象阻碍你,现在就试试这些技巧吧!让你的创意瞬间跃然纸上,成为他人眼中的艺术瑰宝!🌟🎨

🌟稳态扩散内置防拆算法💡只需简单几步,轻松实现图像分割!拖拽目标图片到反堆区域,一键触发,立即获取重构原图的关键线索。初次体验可能稍显流畅度挑战,但别担心,耐心等待片刻,它将迅速启动,带你进入创作的新境界。记得,每一次创新都值得一点小等待😊

需要注意的是,这些提示词需要进行后期的优化,常用的方法是通过百度翻译后进行增删改,或者输入到 GPT 中进行优化,优化后将提示词放入相应的框内进行图像输出。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

ii. 第二种方法我们可以借助三方网站:https://replicate.com/ 来进行拆分,拆分好后,同第一条一样,进行一个增删改,然后我们对两种方法进行比较,通过比较后,我们可以进行词汇的筛选与合并。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

iii. 利用gpt或文心等相关工具,将想要描述的长句输入,最后加一句描述,请将这句话拆分为Stable Diffusion的提示词,如果不满意可以继续恢复优化提示词,或者换一批相关描述,然后将转换好的提示词同i一样增删改。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

2. 符号的使用

正如前文所述,词汇在提示中的位置越靠前,其所占的权重就越大。为了进一步调整提示关键词的权重,我们可以通过以下语法来设置关键词的权重:在选中关键词的同时,按下键盘上的Ctrl+上下来快速调整权重。每次调整的权重值为0.1,建议将权重值控制在0.7-1.4之间。

简单来说,将每个提示词看作一个独立的个体,权重默认为1,而后面的数值就相当于在修改这个默认值。当然,我们也可以将权重调整为负数,从而在提示中产生与原意相反的影响。

通过这种方法,我们可以更加精确地控制提示关键词的权重,以达到更好的提示效果。同时,我们也需要注意保持提示内容的流畅性和自然性,避免过度的修改导致提示内容的语义不连贯或不符合实际情况。

3. 图像的输出

画面的信息量取决于输出图片的大小。在全身构图中,一些细节,例如脸部、饰品和复杂的纹样,只有在较大的图像中才能得到充分的展示空间,如图像太小,脸部,手部,一些细节就会被压缩成一团,无法得到充分的表现,以下图的风景为例,当画幅越大时,展示的内容越多。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

二、界面部分

1. 采样迭代步数

输出画面需要的步数,每一次采样步数都是在上一次的迭代步骤基础上绘制生成一个新的图片,一般来说采样迭代步数保持在18-30左右即可,低的采样步数会导致画面计算不完整,高的采样步数仅在细节处进行优化,对比输出速度得不偿失。

2. 采样方法的介绍

常用的有三种,分别是Euler a,DPM++2S a Karras和DDI

Euler a:

i. Euler a是一种用于控制时间步长大小的可调参数,在Stable Diffusion中采用Euler时间步长采样方法。适当的Euler a值能够捕捉到细节和纹理,但如果值太大会导致过度拟合,生成图像出现噪点等不良效果。

ii. 一句话概括:采样生成速度最快,但是如果说在高细节图增加采样步数时,会产生不可控突变(如人物脸扭曲,细节扭曲等)。

适合:ICON,二次元图像,小场景。

下图为大家展示同提示词不同步幅。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

DPM++2S a Karras :

i. 采用 DPM++2S a Karras 采样方法生成高质量图像,该方法在每个时间步长中执行多次操作,同等分辨率下细节会更多,比如可以在小图下塞进全身,代价是采样速度更慢。

ii. 适合:写实人像,复杂场景刻画。

下图展示elura a同提示词不同步幅下的输出图像,可以看到步幅越高,细节刻画越好。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

DDIM

i. DDIM 采样方法可以快速生成高质量的图像,相比其他采样方法具有更高的效率,想尝试超高步数时可以使用,随着步数增加可以叠加细节。

ii. 适合:写实人像,复杂场景刻画。

下图为大家展示DDIM同提示词不同步幅下的输出图像,可以看到随着步幅的提高,细节和丰富度逐渐提高。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

3. 提示词相关性

Stable Diffusion中的提示词相关性指的是输入提示词对生成图像的影响程度。当我们提高提示词相关性时,生成的图像将更符合提示信息的样子;相反,如果提示词相关性较低,对应的权重也较小,则生成的图像会更加随机。因此,通过调整提示词相关性,可以引导模型生成更符合预期的样本,从而提高生成的样本质量。

i. 在具体应用中,对于人物类的提示词,一般将提示词相关性控制在7-15之间。

ii. 而对于建筑等大场景类的提示词,一般控制在3-7左右。这样可以在一定程度上突出随机性,同时又不会影响生成图像的可视化效果。因此,提示词相关性可以帮助我们通过引导模型生成更符合预期的样本,从而提高生成的样本质量。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

4. 随机种子

i. 随机种子是一个可以锁定生成图像的初始状态的值。当使用相同的随机种子和其他参数,我们可以生成完全相同的图像。设置随机种子可以增加模型的可比性和可重复性,同时也可以用于调试和优化模型,以观察不同参数对图像的影响。

ii. 在Stable Diffusion中,常用的随机种子有-1和其他数值。当输入-1或点击旁边的骰子按钮时,生成的图像是完全随机的,没有任何规律可言。而当输入其他随机数值时,就相当于锁定了随机种子对画面的影响,这样每次生成的图像只会有微小的变化。因此,使用随机种子可以控制生成图像的变化程度,从而更好地探索模型的性能和参数的影响。

在工作产出中,如果细微调整,我们将会固定某个种子参数然后进行批量生成。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

三、Checkpoint,VAE,embedding和lora的使用详解

1. 安装路径自查

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

2. Checkpoint的介绍

i. 对于模型作者而言,训练模型通常指生成Checkpoint文件。这些文件包含了模型参数和优化器状态等信息,是训练过程中定期保存的状态快照。

ii. 对于使用者而言,可以将Checkpoint文件理解为一种风格滤镜,例如油画、漫画、写实风等。通过选择对应的Checkpoint文件,您可以将Stable Diffusion模型生成的结果转换为您所选择的特定风格。需要注意的是,一些Checkpoint文件可能需要与特定的低码率编码器(如Lora)配合使用,以获得更好的效果。

iii. 在下载Checkpoint文件时,您可以查看相应的模型简介,通常作者会提供相应的文件和说明事项,以帮助您更好地使用和理解该文件。

总之,Checkpoint文件是Stable Diffusion模型训练过程中定期保存的状态快照,使用者可以将其理解为一种风格滤镜,用于将模型输出结果转换为特定的风格。在使用Checkpoint文件时,需要注意文件的匹配和相应的使用说明。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

3. VAE的介绍

i. 可以将VAE理解为对模型的滤镜加微调,不同的VAE可能有一些细节上的差异,但不会影响输出的效果。

ii. 它可以增强模型的表现,有些模型文件已经自带了VAE效果,因此不需要盲目地去挂载,可以选择自动模式来简化日常使用。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

4. embedding的介绍

i. 如果你有做过UI的经验,那么你应该知道组件的概念。在Stable Diffusion中,embedding技术就可以被理解为一种组件,它可以将输入数据转换成向量表示,方便模型进行处理和生成。

ii. 举个例子,如果我们想要生成一个开心的皮卡丘,通常需要输入很多描述词,如黄毛、老鼠、长耳朵、腮红等等。但是,如果引入皮卡丘的embedding,我们只需要输入两个词:皮卡丘和开心。皮卡丘的embedding打包了所有皮卡丘的特征描述,这样我们就不用每次输入很多单词来控制生成的画面了。

iii. 在日常使用中,embedding技术通常用于控制人物的动作和特征,或者生成特定的画风。相比于其他模型(如LORA),embedding的大小只有几十KB,而不是几百兆或几GB,除了还原度对比lora差一些但在存储和使用上更加方便。

iiii. 总之,embedding技术将输入数据转换为向量表示,为模型的处理和生成提供了便利。通过使用embedding,我们可以更加轻松地生成符合预期的样本,而不需要手动输入大量的描述词汇。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

5. LORA的介绍

LORA与embedding在本质上类似,因为携带着大量的训练数据,所以LORA对人物和细节特征的复刻更加细腻。

使用技巧:

i. 通常来说,每个 LORA 模型都有对应的底膜和触发词汇。我们可以查看 LORA 作者产出的相关图片,从中获取模型信息,并从中选择一些提示词和排除词来指定生成图像的方向。需要注意的是,每个 LORA 模型对输出图像的权重设置是非常重要的。权重设置越大,对画面的影响因素就越浅。通常情况下,权重应该控制在 0.7-1 之间。如果权重过高,会大幅度影响出图的质量。

ii. 为了获得最佳效果,我们可以根据不同的 LORA 模型选择适当的提示词和排除词,并在设置权重时进行调整。同时,我们还可以参考其他作者的经验和技巧,以便更好地利用 LORA 生成图像。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

四、图生图下的功能详解

简介:

是一种生成图像的方法,它可以通过对已有的图像进行修改或变形,生成新的图像。在 Stable Diffusion 中,我们可以将垫图的图像看作是一张“初始图像”,通过多次迭代,对其进行修改和变形,逐步生成与垫图风格类似想要的图片。

需注意的是图生图相对于文生图多出两个功能。

重绘幅度:

i. 指的是每次迭代中图像被重新绘制的程度或幅度,也就是新生成的图像与上一次迭代生成的图像之间的差异程度。

ii. 它的取值范围在 0 到 1 之间。当 值等于 0 时,新生成的图像与上一次迭代生成的图像完全一致,即没有重新绘制;

当值等于 1 时,新生成的图像与上一次迭代生成的图像完全不同,即完全重新绘制。

需要注意的是,重绘幅度的大小会影响生成图像的质量和逼真程度。当重绘幅度较小时,生成的图像可能会比较模糊或粗糙;

当重绘幅度较大时,生成的图像可能会出现明显的噪点或瑕疵。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

缩放模式:

拉伸:不改变宽高比的前提下将图片拉伸,宽度高度充满画面空间的100%。裁剪:保留宽高比的基础上,然后裁剪掉超出去的部分,使用时我们可以提前调整好输出图片的宽高比例。填充:它指在缩放图像时,将原始图像放置在目标尺寸的中心位置,多出去的部分用一定的颜色值(通常为黑色)填充周围的空白区域。

直接缩放:

i. 指对图像进行简单的缩放处理,即直接将原始图像缩放到目标尺寸。

ii. 在 Stable Diffusion 中,如果生成的图像尺寸与原始图像尺寸不一致,就需要进行缩放处理。直接缩放是一种简单粗暴的缩放方式,它直接将原始图像缩放到目标尺寸,不进行任何额外的处理。这种缩放方式的优点是简单快速,但缺点是可能会导致图像失真或模糊,特别是当缩放比例较大时。

1. 图生图

主要用来做图片放大和造型背景的变化,或者三次元改二次元时用的,通常配合着ControlNet来使用。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

2. 绘图

i. 通过手动绘制或修改图像的局部区域,来指导生成器生成更加符合用户期望的图像,使用时可以利用绘图工具,如笔刷、橡皮擦等,对图像的局部区域进行修改。修改后的图像会被作为下一次迭代的初始图像,从而影响后续的图像生成过程。

ii. 通过绘图,可以更加精细地控制生成图像的细节和特征,从而获得更符合预期输出。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

3. 局部重绘

i. 也称为上传蒙版法,提前在作图软件里用画笔涂抹好需要重新绘制的区域,黑色区域表示需要修复的区域,白色区域表示不需要修复的区域。

(注意:因此只需要在需要修复的区域涂黑色,其他区域可以涂白或保留原始颜色。上传蒙版的话也只需在绘图软件里把需要修复的区域涂黑即可)

ii. 局部重绘的目的是尽可能地保留原始图像的结构和纹理特征,使修复后的图像更加自然和真实。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

4. 批量处理

指使用已有的图像生成新的图像。而图生图的批量处理是指同时对多张输入图像进行图生图操作,生成对应的多张输出图像。

五、ControlNet的使用

1. 一图搞定插件安装

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

权重:

ControlNet的权重与图生图权重的对比关系时:

低重绘强度配高权重,可以锁定图片的细节,更改画风上的展现,拓展延伸推荐。高重回强度配低权重,修改图片细节,定风格图后小修改推荐。

预处理器与模型的关系:

i. 使用预处理器时要与模型一一对应起来,如与处理器选择canny,则相对应的模型也要选择canny。

ii. 预处理器和模型在 Stable Diffusion 中是相辅相成的,预处理器通过对输入图像进行预处理和数据增强,为模型提供了更好的输入,而模型则通过对输入进行特征提取和生成高质量图像,为预处理器提供了更好的反馈。

介入时机和退出时机:

i. 介入时机:代表第几步介入对画面的影响;退出时机:代表第几步退出对画面的影响。

ii. 如,现在是一个生成步幅为30步的图像:

现在介入时机为0.2,则从30×0.2=6,第六步的时候ControlNet开始介入现在退出时机为0.8,则从30×0.8=24,第二十四步的时候ControlNet退出对输出的介入

2. Canny 边缘检测

i. Canny 是一种经典的边缘检测算法,能够很好地识别出图像中的边缘信息,对于图像生成任务来说,可以帮助模型更好地生成具有清晰边缘的图像。

ii. 处理图片的方式是将图片专为线稿,对于画面细节不复杂的图像来说很好,但处理复杂图像时,主体会容易被除主题元素以外的元素影响。

iii. 细节刻画上,一种是分辨率越高,线条越清晰,阈值越少,对应的细节也越多。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

4. Hed 边缘检测,细节保留

i. 该算法的特点是能够同时预测多个尺度的边缘,从而提高了边缘检测的精度,对边缘清晰的图像生成效果更好。

ii. 当用草图转上色时,可以在绘图软件将描边加粗加深一些,从而能更方便获取边缘。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

5. MLSD 线性检测

i. mlsd模型,可以进行直线检测,通过分析图片的线条结构来构建出建筑外框,适合建筑设计的使用。

ii. 可以配合canny一起使用,效果更佳。

6. Open pose-人物摆pose

判断主图的主体动作,然后将动作附加在主图上 一般配合着open pose editer。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

7. LeRes深度信息估算

对有场景深度的图片效果更佳,生成的图像景深更易区分。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

六、结语

随着AI技术的快速发展,图像生成领域的大型模型正在成为研究的热点,但是由于该领域的相对新颖和复杂性,相关的教程和资源目前还相对匮乏。希望本文可以帮助各位设计师快速入门Stable Diffusion,并为您提供一些有用的参考资料。

相信在不久的将来,一些真正具有商业价值的大模型将会涌现出来,为设计和其他领域带来更多的创新和效益,最后,希望大家能不断探索和学习,掌握更多的技能和知识,为设计赋能!

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

本文由 @尹承元 原创发布于人人都是产品经理,未经许可,禁止转载

题图来自 Unsplash,基于 CC0 协议。

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

掌握SD保姆级教程?StableDiffusion&Midjourney对比,这里教你精准拆分提示

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!