如何训练一个非常像的真人LoRA

如何训练一个非常像的真人LoRA

在本篇文章中,我们将探索如何训练一个能够将喜爱的人物置入任何场景中并实现高度一致性的LoRA模型。借助LoRA,我们能够创造出极为逼真的人物图像,就如同我为斯嘉丽训练的LoRA模型所展示的那样。 那么,让我们一起深入了解如何训练LoRA。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): Kohya训练器 在多种工具中,Kohya训练器因其全面的功能——不仅限于训练LoRA,也包括DreamBooth和Text Inversion——而广受欢迎。 国内也有一些开发者制作出了一些好用的训练器,比如赛博丹炉和秋叶丹炉。它们的原理和Kohya一样,设置好参数以后,最终都会转化为脚本进行训练。所以说,掌握了Kohya训练器以后,其他的训练器也不在话下。 安装Kohya相对简单,其详细的安装指南可在项目的Github主页(https://github.com/bmaltais/kohya_ss)找到。 此外,B站的知名UP主Nenly也提供了一份详细的安装攻略(https://gf66fxi6ji.feishu.cn/wiki/Q4EYwQl2riWw25kdN3hc5xuEnIe),非常值得参考。 LoRA训练流程 训练LoRA的流程包括以下几个关键步骤: 1️⃣ 准备数据集:选取适合训练的图片。 2️⃣ 图片预处理:进行裁剪和打标,为图片添加合适的标注或提示词。 3️⃣ 设置训练参数:在Kohya训练器中进行参数设置。 4️⃣ 开启训练:通过命令行查看训练进度。 5️⃣ 测试训练结果:挑选出效果最佳的LoRA文件进行测试。 LoRA训练的底层逻辑 为了解决可能出现的疑惑,本段落将深入解释LoRA训练的底层逻辑。通过深入了解这一过程,您将能更清晰地把握如何训练出一个高质量的LoRA模型。 LoRA训练概述 LoRA模型的训练目标是生成的图片与原训练图像高度相似。这是通过在Diffusion模型上添加额外权重来实现的,这些权重被保存在一个称作LoRA文件的单独文件中。可以将LoRA文件视为Diffusion模型的一种插件,这种插件会根据训练过程不断调整权重,以达到与原始训练图相似的效果。 训练过程详解 通过上述步骤,LoRA模型的训练涉及到精细的权重调整和优化,确保了生成图像与原始训练图之间的高度相似性。希望这一解析能帮助您更好地理解LoRA模型的训练机制。 正式开始LoRA训练:以斯嘉丽为例 在理解了LoRA训练的底层逻辑后,我们现在可以开始实际的训练过程了。本次我们将以众所周知的好莱坞明星斯嘉丽·约翰逊为例,展开训练。下面是详细的步骤和一些建议,希望能帮助你顺利完成LoRA模型的训练。 第一步:准备训练集 成功的LoRA训练起始于高质量的数据集。以下是一些建议,帮助你准备一个合格的训练集: 选择合适的图片作为训练集是至关重要的第一步。优质的数据集直接影响训练结果的质量。 第二步:图片预处理 裁剪 为了让AI更好地学习人物的脸部特征,建议以1比1的宽高比进行裁剪,主要聚焦于头部区域。稍微包含一些肩膀部分也是可以的。这样的裁剪策略有助于生成更加逼真的LoRA图像。这样可以让AI充分学习人物的脸部特征,生成的LoRA也更像。如果到时候我们训练出的LoRA生成的图片只有大头照也没关系,因为我们可以先生成其他人物的全身照,然后用LoRA生成的大头照进行换脸。 这几张斯嘉丽的图片我就是这样生成的。灵活度很高,想要什么风格就什么风格。 放大 鉴于许多在线图片的分辨率较低,裁剪后的图片分辨率可能进一步降低。因此,我们推荐将图片放大至至少512×512的分辨率。如果条件允许,可以考虑放大到768×768。图片放大不仅可以提升图片细节,还能丰富训练过程中的学习材料。 放大完以后,我们就可以进行最终裁剪啦。上篇文章(https://myaiforce.com.cn/text-inversion/)中,我给大家推荐了一个非常好用的在线裁剪工具,感兴趣的话可以回顾一下。 第三步:打标 通过遵循上述步骤,你将能够为LoRA训练准备好高质量的数据集,并进行有效的预处理。这样的准备工作是成功训练LoRA模型的关键。希望这些指导能帮助你顺利进行训练,并创造出令人印象深刻的人物图像。 LoRA训练核心参数详解 在图片处理完成之后,我们将进入Kohya训练器的设置阶段,这一阶段是LoRA训练过程中至关重要的一步。接下来的指南将帮助您熟悉Kohya训练器的界面和必要的设置选项,确保您的训练顺利进行。 选择预训练模型 设置训练项目文件夹 1️⃣训练模型输出名称:为训练好的LoRA文件命名。这一步骤对于后续的测试和使用非常重要,确保您能够轻松识别和调用不同的训练结果。 2️⃣图片文件夹路径:需要指定一个包含训练图片的文件夹。这里存放的是您预处理后用于训练的图片,确保路径设置正确。 3️⃣LoRA文件输出路径:指定LoRA训练结果存放的位置。这个文件夹将用于保存训练过程中生成的LoRA文件,方便后续测试和使用。 4️⃣训练日志文件夹路径:设置一个文件夹用于存放训练过程中生成的日志文件。这对于监控训练进度和调试可能出现的问题非常有帮助。 其他设置 新建训练项目文件夹 填这些路径之前,首先得新建一个训练项目的文件夹。 1️⃣新建项目文件夹:首先,创建一个新的训练项目文件夹,例如命名为scarlett_johansson。重要提示:为了避免潜在的问题,请确保文件名不包含中文字符或空格。 2️⃣创建必要的子文件夹:在项目文件夹内部,需要创建三个子文件夹,分别命名为image、models、和log。这些文件夹分别用于存放训练数据集、输出的LoRA模型文件以及训练日志。 3️⃣添加数据集和打标文件:在image文件夹下,进一步创建一个用于存放具体数据集和打标文件的子文件夹,如25_ScarlettJohansson。这里的25代表对每张图片进行的重复训练次数(Repeats),建议设置在10到30之间。文件夹名称的其余部分应反映训练的概念或主题,例如人物的姓名。…

Text Inversion

Text Inversion: 比 Lora 更简单地训练人脸【Stable Diffusion 炼丹教程】

Stable Diffusion的最大魅力体现在其DIY的能力上。它不是什么图都能画出来,但是我们可以根据自己的需求,训练它成为我们想要的样子。 其中,Text Inversion 就是一种最简单有效的训练方式。它比 Lora 训练更简单,对数据集的要求比较低,适合入门。 它的训练过程和 Lora 有很多共通的地方,熟练掌握的话对于后期 Lora 训练也是很有帮助的。 和 Lora 一样,它也可以用来训练任何人脸,生成任何人的照片。 其实,早在一年以前,就有很多关于它的教程。然而,那时的 WebUI 跟现在的有所不同,可能会让你感到困惑。而且,之后还出现了一些新的处理数据集的方法。 所以,我觉得有必要写一篇新的文章,让大家从原理层面深入了解 Text Inversion。 在这篇教程中,我会用著名好莱坞女明星 Angelina Jolie 的照片进行训练。有人可能会问,Angelina 是个名人,Stable Diffusion 训练过她的照片。那么我再为她训练 Embedding 有什么意义呢? 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 让我来解释一下。 我们都知道,Stable Diffusion 是用网络上公开的6亿张包含描述的图片训练而成的。 这些图片的质量都不太高,而且未必符合我们心目中的 Angelina 的形象。如果我们要生成自己心目中 Angelina 的样子,就可以筛选出我们喜欢的照片,然后用它们来进行训练。这才是训练的真正意义。 看,下面是训练前后的对比图片。左边这列是原版的Angelina。右边是我训练的Angelina。它们的区别还是挺大的吧。 接下来,我将一步步引导大家通过实例学习Text Inversion的训练过程,包括数据集的准备、图片的预处理、训练过程以及测试训练结果。 数据集的准备 训练开始前,数据集的准备是至关重要的一步,它直接影响到最终生成图像的质量。遵循以下两个原则以确保数据集的质量: 推荐至少准备10张以上的面部图像,并可以包含一些上半身或全身照片,以学习人物的体型和姿态。注意,图片中不应包含水印,以避免影响最终结果。 看,这是我用不同质量的数据集生成的效果。左边这列的是用质量比较差的数据集,跟右边的效果还是有差距的吧? 图片预处理 图片准备工作完成后,接下来的重要步骤是进行图片的预处理,包括裁剪和打标,以确保所有图片都有统一的分辨率,推荐尺寸为512×512。这一步骤对于提高训练效果和最终图像的质量至关重要。以下是详细的预处理步骤: 1️⃣ 选择合适的工具:由于新版本的WebUI已经移除了“图片预处理”功能,因此需要借助外部工具进行预处理。我在这里推荐一个在线批量处理图片的网站,使用起来非常方便。网址是: 2️⃣ 上传图片: 3️⃣ 自动裁剪和焦点检测:…

比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真

比 Roop 和 Reactor 更像!IP Adapter 新模型为任何人做写真

继我们上一篇文章介绍了IP-Adapter的新模型Face ID Plus V2之后,今天我们将深入探讨如何将这一强大工具用于生成具有高度个性化特征的人物肖像,保持脸部一致性的同时,创造出各种不同风格的形象。 这个模型也可以在 Stable Diffusion 的云平台上使用。 👉 玩 Stable Diffusion 没有好显卡?试试秋叶大佬推荐的云平台 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): IP-Adapter应用广泛 在上一篇文章中,我们使用了 WebUI 图生图中的局部重绘功能,通过这个功能,我们成功地将好莱坞女神Angelina Jolie的脸融合到了Midjourney生成的图片上。 其实,这个新模型也可以在 WebUI 文生图中发挥作用。 我们可以用它来生成各种风格不同的人物肖像,并且保持脸部的一致性。 比如说,我用同一张 Angelina 的头像作为参考图给到 IP Adapter。通过修改不同的提示词,就能生成 Angelina 的各种风格的照片。 我试了另一个换脸插件 Reactor。它的效果和 Roop 差不多,我感觉都比不上 IP Adapter 的这个模型。 这是用 Reactor 生成的几张 Angelina 的照片。我感觉和 Angelina 本人并不像。 我还试了近期比较热门的另一个用来换脸的 ControlNet。就是小红书开发的 InstantID。这是用 InstantID 生成的照片。 虽然和 Angelina 本人比较像,但图像质量比较差,脸部缺乏细节,而且高光和阴影都太强烈。 通过对比这几个工具的效果,我还是更偏爱 IP-Adapter的这个新模型。 本文将介绍它配合…

这个 Stable Diffusion 新模型换脸效果真不错!

这个 Stable Diffusion 新模型换脸效果真不错!

ControlNet 是 Stable Diffusion Web UI 中功能最强大的插件。基于 ControlNet 的各种控制类型让 Stable Diffusion 成为 AI 绘图工具中最可控的一种。 IP Adapter 就是其中的一种非常有用的控制类型。它不仅能够实现像 Midjourney 一样的“垫图”功能,还能用来给肖像人物换脸。 IP Adapter 的很多老的模型都可以用来换脸,如 Plus Face。然而,IP Adapter 不断推出了更新的模型,持续为我们带来惊喜。通过我的亲身测试,我发现新的 Face ID Plus V2 模型在换脸效果上远胜以往。 我尝试将好莱坞女星 Angelina Jolie 的脸部特征融合到了由 Midjourney 生成的多个图片中,包括一名中世纪女战士、一幅文艺复兴时期的美女肖像,以及一位女王的形象,效果都非常令人满意。 怎么样?效果还不错吧?接下来我来介绍如何在 Web UI 中安装并使用这个模型。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 准备工作 我们主要利用 Control Net 中的 IP Adapter 来进行换脸,同时使用 OpenPose 保持原图人物的头部姿势。 相对于 Control Net…

在 Stable Diffusion 中使用 DeepFashion (ADetailer) 处理服装太给力了!

在 Stable Diffusion 中使用 DeepFashion (ADetailer) 处理服装太给力了!

在上一篇文章中,我为大家详细介绍了Stable Diffusion中一个非常有用的插件,名为ADetailer。 👉 Stable Diffusion 必装插件之 ADetailer 这个插件主要用于修复面部问题并为面部和手增加细节。目前,ADetailer包含了14个不同的模型,每个模型都有其独特的用途。我已经对其中大部分模型进行了对比分析。但有一个特殊的模型——DeepFashion,我之前并未介绍,因为它与其他模型有所不同。在这篇文章中,我将详细介绍DeepFashion。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): DeepFashion的核心功能 DeepFashion模型的核心功能是处理服装。这个模型的数据集包括来自13个流行服装类别的80多万件服装。使用DeepFashion模型,ADetailer能够检测图像中的服装,并进行分割,以便进行单独处理。 我们都知道,Stable Diffusion的自然语言理解能力较弱,无法与DALL-E和Midjourney相提并论。例如,使用SDXL模型生成的这张图片,其提示词是“1位女孩,面带微笑,晨光打在脸上,黑色丝质吊带衫,领口处有精致的蕾丝边,酒红色格子高腰半身裙,全身拍摄,凉鞋,古色古香的鹅卵石街道,景深,虚化”。但是,女孩裙子上的格子图案并没有被体现出来。提示词越长,遗漏的细节就越多。 而使用DeepFashion后,可以看到明显的改进,如裙子上的格子图案就被准确体现出来了。 再比如,解决提示词污染的问题。例如,一张图片的背景是柠檬黄色,但Stable Diffusion可能会错误地将柠檬图案应用到女孩的裙子上,如下图所示: 这时,使用DeepFashion可以有效解决这一问题。它会将裙子单独分离出来,并使用专门的提示词进行描述。这样,如果提示词中不包含“柠檬”,裙子上就不会出现柠檬图案。 安装DeepFashion模型 以下是DeepFashion模型的详细安装过程: 1️⃣Adetailer插件安装 首先,确保已经安装了Adetailer插件。如果尚未安装,可以参考上一篇文章中的步骤进行安装。安装Adetailer是使用DeepFashion的前提条件。 2️⃣下载DeepFashion模型 安装Adetailer插件后,DeepFashion模型不会自动出现在模型列表中。要使用DeepFashion,您需要手动下载它。模型的下载链接是: https://huggingface.co/Bingsu/adetailer/tree/main 3️⃣进入下载页面 在浏览器中输入下载地址后,你将被引导至HuggingFace下载页面。在这里,所有可用的模型都会被列出,你可以找到位于列表首位的DeepFashion模型。旁边有一个下载按钮,点击该按钮开始下载。 4️⃣移动模型文件 下载完成后,将下载的模型文件移动到Stable Diffusion的 “webui/models/adetailer” 文件夹内。这一步骤是必要的,以确保WebUI能够正确识别并加载模型。 5️⃣重启WebUI 将DeepFashion模型文件放置在正确的文件夹后,需要重启WebUI。重启后,DeepFashion模型应该出现在Adetailer的模型列表中,这意味着它已经准备好使用了。 安装完成以后,让我们通过两个案例,身临其境,体验DeepFashion的用法。 案例一:使用DeepFashion解决衣物图案问题 1️⃣ 生成初始图片: 为了更好地说明问题,我生成了几张不同的图片。从中选取了三张展示出来。可以看到,衣服上的亮片或金色部分错误地出现在了背景中。 2️⃣ 使用DeepFashion解决问题: 3️⃣ 添加亮片效果: 4️⃣ 调整去噪强度以改善效果: 案例总结 DeepFashion能够有效地将服装从图片中分离出来进行单独处理,解决了提示词污染问题。这种技术特别适用于那些Stable Diffusion可能无法准确理解和渲染的复杂场景。 例如,使用albedobaseXL模型生成的图片中,绿色的裙子和柠檬黄的背景被准确分离,没有出现混淆。 而使用dreamshaperXL-Turbo模型生成的图片就出现了问题,背景中的柠檬黄色错误地出现在了裙子上。 在这种情况下,DeepFashion就显现出了其优越性,能够准确地处理和优化图片中的服装元素。 通过这个案例,我们可以看到,DeepFashion不仅提高了Stable Diffusion生成图像的质量,也为我们在图像生成过程中提供了更多的控制和创造力。 案例二:优化SDXL模型中的颜色处理 在Stable Diffusion的应用中,尤其是使用SDXL模型时,我们经常遇到提示词污染问题,特别是在处理颜色时。让我们通过一个实际案例,探索如何使用DeepFashion来解决这一挑战。…

Stable Diffusion 必装插件之 ADetailer,修脸修手无敌,各种参数详解

Stable Diffusion 必装插件之 ADetailer,修脸修手无敌,各种参数详解

如果你经常用 Stable Diffusion 画人物,相信你一定画出过脸崩的图片。这也是目前文生图 AI 工具普遍存在的问题。连 Midjourney V6 也不例外!当它画一个人的时候表现还好,当画面里的人一多,局面就难以控制了。 看,这就是 Midjourney V6 生成的图片。各种扭曲变形,是不是令人大跌眼镜? 单人肖像在 Stable Diffusion 中可以局部重绘一下,要是人数多呢?值得我们为修复一张图片花费几个小时的时间吗?幸运的是,我将为你介绍一个非常强大的插件。它就是为一次性快速修复这样的问题准备的。绝对是 Stable Diffusion 必装的一款插件。 很多人没有用过 Stable Diffusion 的原因是显卡不给力。其实可以租用云平台来跑 SD,按小时收费也很划算。感兴趣的话,可以看看我的这篇文章: 👉 玩 Stable Diffusion 没有好显卡?试试秋叶大佬推荐的云平台 ADetailer 值得我花很多时间,与你们分享。本文包含的内容非常丰富,从插件的安装,到各种参数的详细介绍。耐心看完的话,一定能成为高级玩家。OK,让我们开始吧。 安装 首先我们来看如何安装这个插件。 安装 ADetailer 的方法和安装其他插件一样。首先来到插件的标签页,然后点击“可用”标签页。接着在 “Search” 文本框内输入 “adetailer”。通常情况下,它会出现在下方的列表里,然后点击安装即可。 如果没有出现的话,还有第二种方法,那就是利用“可用”标签页右边的标签页“从网址安装”。这个网址可以从这个项目的 Github 网页获得。我们可以在搜索引擎上输入关键词 “adetailer stable diffusion”,通常这个网页在搜索结果中排名第一。或者直接在浏览器地址栏输入网址。 到了 Github 网页(https://github.com/Bing-su/adetailer)以后,点击 “Code” 按钮,在弹出的窗口中点击 “复制url到剪贴板”按钮。这时候网址就被复制到了剪贴板上。 ADetailer 的 GitHub…

stable diffusion controlnet brightness

Stable Diffusion 改变光线的能力简直太强大了!

在没有 Stable Diffusion 的年代,对照片的光线进行后期处理,基本上要依靠 Photoshop。比如添加一个曝光图层。这个技术对于形状简单的物体来说很方便,因为光线效果很好模拟。但对于形状复杂的主体,比如人来说,要想实现自然的光线效果,你最好得有美术功底,并配备一个数位板。 Stable Diffusion 的出现使得改变光线变得既简单又自然,因为它学习过无数的照片里的光线,从而可以模拟出非常真实的光线效果。 本文将通过实际案例,为你一步步揭晓这一神奇的功能,让你借助 AI 的力量轻松驾驭图片里的光线。 任务简介 下面这张图也是 Stable Diffusion 生成的。当然,我们也可以处理相机拍出来的照片。 图中的光线是从主体左边照过来的。现在我们要换一个方向,变成右边照过来。如果在 Photoshop 的曝光图层上通过画笔涂抹的话,没有美术功底的人很难实现非常自然的效果。让我们看看怎样通过 Stable Diffusion 来处理。 用到的模型 我们将要借助 Stable Diffusion 的 ControlNet Brightness 模型。这个模型可以在 HuggingFace 上下载,地址是 huggingface.co/ioclab/ioc-controlnet/tree/main/models。 如果你跟我一样用这个SD云平台的话,它已经被内置在 WebUI 里啦,简直太方便! 👉 玩 Stable Diffusion 没有好显卡?试试秋叶大佬推荐的云平台 这个模型,顾名思义,就是用来控制图像明暗。 我们只需要选择它,并上传一张记载图像明暗信息的灰度图。为了改变原图的明暗,我们可以在 Photoshop 中修改它的灰度图。 PS预处理 在 Photoshop 中将图片转换为灰度模式后,我们就可以使用减淡/加深工具来调整明暗。在需要提亮的地方,我们使用减淡工具进行涂抹;在需要调暗的地方,我们则使用加深工具进行涂抹。 这些涂抹不需要很精细,因为稍后 Stable Diffusion 会把明暗关系处理得更自然。下图是我涂抹的灰度图。 我把主体头顶上方的区域由亮变暗。并把主体的右侧身体提亮,左侧身体变暗。图片左上角也增加了明亮区域。 SD处理光线…

Stable Diffusion 修复 Midjourney 有瑕疵照片

Stable Diffusion 修复 Midjourney 有瑕疵照片

Midjourney V6 生成的照片在质感上有了一个巨大的提升。下面4张图就是 Midjourney V6 生成的。 如果仔细观察人物和老虎的面部,细节真的很丰富。 但仔细观察上面四张图的手部细节,就会发现至少有两只手是有问题的。这也是目前所有 AI 绘图工具面临的问题。当人物在画面中占的比例很大,这样的问题出现的频率就会小些。通过 Reroll (抽卡) 有很大概率能得到一张没有问题的图片。 然而,当人物在画面中的比例占的比较小时,人物的细节 (比如面部和手部)就更容易出问题。即使不停地Reroll (抽卡) 也无法解决这个问题。 当然,Midjourney 有局部重绘功能,可以修复一些画面中的瑕疵,不过目前还无法在 V6 版本上使用。即使可以使用,也无法精确控制生成的效果。Midjourney 的局部重绘是通过提示词来控制的,但很多画面是无法用语言来精确描述的。比如手部的姿势,手指的弯曲度等等。 下面这张图也是用 Midjourney V6 生成的,就像前面说过的,由于人物在画面中的比例比较小,人物的细节很容易出问题。 如果放大来看,脸部,双手都有问题。 既然 V6 没有局部重绘来修复细节,最佳方案便是 Stable Diffusion。它比 Midjourney 更容易产生我们想要的效果。 很多人没有用过 Stable Diffusion 的原因是显卡不给力。其实可以租用云平台来跑 SD,按小时收费也很划算。感兴趣的话,可以看看我的这篇文章: 👉 玩 Stable Diffusion 没有好显卡?试试秋叶大佬推荐的云平台 脸部在 Stable Diffusion 中比较容易修复,让我们从最难的部分开始,就是上图中的左手。 上图中的左手指甲盖有问题,而且手是攥在一起的,显得人物很紧张,不优雅。 首先我用一个 3D 模型软件 DesignDoll 做出想要的手部姿势。 下载地址是…

midjourney stable diffusion product photography

Midjourney + Stable Diffusion 做场景图 (ControlNet Depth)

Midjourney V6 生成的图片细节逼真,堪比真实摄影。它可以解决绝大多数商业上的场景图需求。从此再也不必专门为了场景而去拍摄照片了。 可是,光有场景很难实现商业上的落地。如何把产品很自然地融入其中才是关键!这时候 Stable Diffusion 就派上用场了。 我将通过实际案例演示 Midjourney 如何配合 Stable Diffusion 做出一个非常有场景感的产品图片。 1. Midjourney 生成场景图 在 AI 赋能摄影的时代,我们只需要一张基本的白底产品图即可。下图是一幅薄荷精油的图片,我们将要为它塑造场景。 为了展现精油健康,有机的产品形象,我们需要为此设计相关的场景。我用下面的提示词在 Midjourney 中生成了一幅场景图。我把白底的产品图给 Midjourney 做参考,这样它生成的产品和真正的产品会更像。 Prompt: Medium: Photo. Subject: A bottle of peppermint essential oil on a moss-covered log, surrounded by peppermint leaves. Emotion: Serene. Lighting: Natural, clear blue sky. Scene: Bubbling brook in the background,…

白底图换场景图 (Stable Diffusion + Photoshop Beta)

白底图换场景图 (Stable Diffusion + Photoshop Beta)

Stable Diffusion 因其出色的可控性,越来越受到专业人士的青睐,成为 AI 绘图工具中的佼佼者。以电商领域为例,它带来的影响不仅仅是提升了效率,更重要的是降低了成本。以前,要拍摄一组高质量的场景图,通常需要求助专业的摄影工作室。而摄影工作室为了打造一个合适的场景,可能需要在装修上投入大量的成本。 现在,Stable Diffusion 可以轻松生成各种类型的场景图,使得整个流程都可以在电脑上完成。我们甚至只需要拍摄一张简单的白底图就可以了。本文将通过一个实际案例来演示这个工作流程。借助 Stable Diffusion 和 PS Beta ,我们将为下图所示的香水白底图添加一个场景。 很多人没有入门 Stable Diffusion 的原因是没有好的显卡。但现在的云端技术很发达,完全可以在云端跑 Stable Diffusion。还没有使用过的朋友可以看看我的这篇介绍: 👉 玩 Stable Diffusion 没有好显卡?试试秋叶大佬推荐的云平台 1. 在 SD 中生成场景图 我选择的是基于 SDXL 的模型 DreamShaperXL Turbo 模型。它不仅出图速度快,而且画质也很好。我甚至反向提示词 (Negative prompt) 都不用写。 它只需要 7 步就能生图,采样器 (Sampling method) 我选的是 “DPM++ SDE Karras”。 为了让原先的香水瓶在场景中的形状和构图保持不变,我把原先的白底图上传到 ControlNet,然后用 Canny 模型生成它的轮廓图。如下图所示,我基本没有调整参数。也可以勾选完美像素 (Pixel Perfect),对照片的效果更好一些。 点了哪个形状像爆炸一样的按钮,Stable Diffusion…