AI换脸技术大比拼:PuLID vs InstantID vs FaceID

AI换脸技术大比拼:PuLID vs InstantID vs FaceID

今天,我们将通过一个ComfyUI工作流来对比三种AI换脸技术,分别是PuLID、InstantID和IP-Adapter的FaceID-V2版本。这些技术的核心原理相似,都是基于一个名为InsightFace的人脸分析技术,该技术需要授权才能商用。InsightFace是一个深度人脸分析库,用于人脸识别、人脸检测和人脸对齐。 IP-Adapter FaceID是这三种技术中最早推出的。接下来推出的是InstantID。PuLID是最近推出的换脸技术。 这三种方案都需要你提供一张人脸参考图。因此,换脸的效果在很大程度上取决于你提供的那张参考图的质量和适配度。 接下来我们来通过一个ComfyUI工作流同时对比这三种换脸方式的效果。工作流的下载地址是:https://pan.baidu.com/s/19K60iNk1LGlNZJBCu7HuJA?pwd=lzo4 。 我会先演示下如何使用这个工作流,然后用这个工作流生成4组图片,并进行打分,来评估它们的效果。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 工作流配置和说明 当你下载好相关节点并导入ComfyUI以后,可能会发现缺少一些节点。这时候只需要在ComfyUI管理器中安装这些节点并重启ComfyUI即可。 建议在安装节点之前先升级ComfyUI,否则即使安装了节点,也可能仍然提示缺失节点。除了节点之外,还需要安装一些必要的模型。 模型的下载地址和存放路径,可以在节点的GitHub主页上找到详细介绍。 以最近的PuLID为例,安装说明中提到需要下载PuLID的预训练模型,然后将其放到ComfyUI/models/pulid/文件夹中。另外,第一次运行PuLID时,会自动下载一些模型。 导入工作流以后,让我们从下往上看看它的结构。 1️⃣ 共享节点:最下面是PuLID、InstantID和FaceID共用的节点。它们使用的Checkpoint、提示词、潜空间图片的尺寸和固定的种子值是相同的,这样可以更有利于同时对比它们的效果。 2️⃣ 模型节点组:再往上,有三个节点组。从左到右依次是PuLID、InstantID和IP-Adapter-FaceID。工作流的作者将它们安排得井井有条,非常直观。 3️⃣ 参考图像节点:再往上,右击名称为”Face”的节点,通过右键菜单最上面的选项,可以发现它实际是一个”加载图像”的节点。这个节点加载的是一张有人脸的照片,用来给PuLID、InstantID和FaceID作为参考。 运行工作流并对比效果 了解了工作流的运行逻辑后,我们可以开始运行工作流,对比这三种换脸方式的效果。 运行步骤 1️⃣ 确保所有必要的节点和模型都已安装和配置正确。 2️⃣ 导入工作流,并检查各节点的连接和配置。 3️⃣ 加载参考图像,并确认图像路径和格式正确。 4️⃣ 运行工作流,生成三种换脸技术的效果图。 5️⃣ 对比生成的效果图,分析PuLID、InstantID和IP-Adapter FaceID的差异和优劣。 对比效果 用这个工作流生成4组图片,并进行打分,来评估它们的效果。我设定了4个评分维度,为了方便起见,每个维度的分值都设定为1-3分: 第一组图片:   PuLID InstantID FaceID 提示词契合度 2 3 1 脸部光效 1 3 2 人脸相似度 1 2 3 脸部细节度 1…

PS创成式填充平替:体验Stable Diffusion扩图专用模型的强大

PS创成式填充平替:体验Stable Diffusion扩图专用模型的强大

大家好,今天我将向大家介绍如何使用免费的Stable Diffusion实现类似于Photoshop的创成式填充功能。 Photoshop的创成式填充功能非常强大。比如,在一张风景照的左右两侧,利用AI自动填充新的内容。 只需要选中要填充的区域,哪怕不写提示词,Photoshop也能够很好地进行扩图。 然而,这个功能是收费的。 今天,我们将探讨如何使用免费的Stable Diffusion实现类似的效果。 这张16:9的图片是我用Midjourney生成的。 通过WebUI,我们可以分别向上和向下扩展图像内容。扩展的方向和范围完全由我们决定,非常灵活,而且填充的内容和原图非常契合。 依赖大模型的实现 用Stable Diffusion实现这个效果非常依赖Checkpoint。在这部分,我们将通过一个消除画面中人物的例子,来说明Checkpoint在Stable Diffusion中的重要性。 步骤说明 1️⃣ 导入图片:将我们之前的图片导入到WebUI的局部重绘功能中。 2️⃣ 涂抹蒙版:将图片中的女子涂抹成一个蒙版。 3️⃣ 调整蒙版模糊度:为了避免重绘后的边缘产生接缝,将蒙版的模糊度调高一些。 4️⃣ 勾选Soft inpainting:勾选“Soft inpainting”选项,以进一步降低接缝的概率。 5️⃣ 保持尺寸一致:确保重绘后的图像尺寸与原图一致。 6️⃣ 调整降噪强度:将降噪强度拉到最大。 7️⃣ 选择模型:选择一个SDXL的模型,这里我们选择的是“juggernautXL”。等待模型加载完成。 8️⃣ 添加提示词:写一些提示词,以更精准地控制重绘区域的内容。 9️⃣ 生成图片:运行生成操作。 模型效果对比 初次生成的图片效果可能不理想,我们可以尝试更换Checkpoint。 1️⃣更换Checkpoint:选择另一个Checkpoint,比如“juggerxl Inpaint”。这是一个专门用于局部重绘的模型。下载地址是:https://pan.baidu.com/s/1Vtb8uuuWDqyDkgR7ToGcRA?pwd=e7hh 。 2️⃣保持其他参数不变:为了对比不同模型的效果,保持其他参数不变,再次生成一张图片。 观察效果 第二次生成的图片效果明显比第一次好很多。通过这个对比,我们可以看到选择适合的Checkpoint对于获得理想的重绘效果是多么重要。有了适合的Checkpoint后,我们可以正式开始用它进行扩图。 简单创成式填充案例 我们将换一张新图,内容是一位美女坐在汽车引擎盖上,并将其扩展成正方形的图像。 设置初始参数 1️⃣ 选择缩放模式:在WebUI中选择”缩放和填充”模式。 2️⃣ 调整高度:将高度设置为1456,以生成正方形的图像。当然,你也可以选择其他尺寸。 3️⃣ 修改提示词:由于我们换了一张新图,提示词也需要修改为:“年轻女子,休闲装,坐在老爷车的车盖上,秋天湖边的树木”。 4️⃣ 生成图片:运行生成操作,查看效果。 初次生成的图片可能只是简单的拉伸,并没有填充实质性的内容。我们需要进一步操作。 再次进行局部重绘…

ComfyUI一键更换服装:IP-Adapter V2 + FaceDetailer(DeepFashion)

ComfyUI一键更换服装:IP-Adapter V2 + FaceDetailer(DeepFashion)

在这篇文章中,我们将探索如何使用新版的IP-Adapter和ComfyUI软件为人物进行换装。 整个过程非常简单,仅需要两张图片:一张服装图片和一张人物图片。 通过一系列节点的操作,ComfyUI就会把这个服装换到人物身上,并利用FaceDetailer节点来修复任何细微的服装问题。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 准备工作流 首先,请确保你已经下载并导入了工作流到你的ComfyUI。下载链接是:https://pan.baidu.com/s/1g684r19bLGUpb0zI4FOwTw?pwd=pbgb 如果在导入过程中遇到节点显示为红色色块,并且有弹窗提示缺失特定节点。 请按照以下步骤解决: 1️⃣ 更新ComfyUI: 在开始之前,请确保你的ComfyUI是最新版本,以免下载到过时的IP-Adapter版本。 2️⃣ 安装缺失节点: 打开ComfyUI管理器,选择“安装缺失节点”,并安装以下三个节点: 3️⃣ 重启ComfyUI: 安装完节点后,点击界面下方的重启按钮。如果重启后一些节点仍显示为红色,不必担心,只需简单刷新一下网页即可解决。 导入和准备图像 为了充分利用提供的工作流并实现人物换装,让我们一步步在ComfyUI中构建所需的操作。我将详细指导你如何加载图像、创建服装遮罩,并最终生成预览图像。 步骤一:加载人物图像 步骤二:创建服装遮罩 步骤三:遮罩细化和预览 完成上述步骤后,你将看到遮罩的图像,它将展示出裙子的具体形状。这个遮罩将用于下一阶段的换装过程,确保新的服装可以精确覆盖在原图的对应部分。 配置IP-Adapter 接下来,我们将详细介绍如何搭建IP-Adapter模块,使用另一张裙子的图片进行人物换装。这部分包含安装必要的模型、导入和连接各种节点,以确保换装过程的顺利进行。 安装必要的模型 导入服装图片 类似于加载人物图片的步骤,搜索并导入Load Image节点,上传你选择的新服装图片。 设置IP-Adapter 配置关注层遮罩和CLIP模型 设置K采样器与CLIP文本编码器 配置VAE编码器和解码器 完善VAE解码过程 应用提示词以精细化控制 评估和调整权重类型 1️⃣ 初次评估: 2️⃣ 调整权重类型: 引入FaceDetailer修复服装细节 为了进一步提升换装效果,特别是增强服装的立体感和细节表现,我们将引入”FaceDetailer”节点和服装区域检测功能。以下步骤将指导您如何安装必要模型、配置相关节点,并最终评估优化效果。 安装和配置DeepFashion模型 打开ComfyUI管理器,搜索并安装”DeepFashion”模型,该模型专为服装相关的图像处理优化。 配置FaceDetailer节点 配置服装区域检测节点 生成和比较图像 通过这些步骤,您不仅能够解决原始换装图像中存在的问题,还能显著提升服装的立体感和细节表现,使其看起来更加自然和逼真。 结论 通过以上步骤,你可以成功地为人物换装,并通过IP-Adapter的高级配置实现更自然和精确的视觉效果。这个工作流的构建不仅涉及基本的图片加载和节点连接,还包括对高级模型和编解码器的深入配置,使得整个过程既详细又具有教育意义。

升级版ComfyUI InstantID 换脸:FaceDetailer + InstantID + IP-Adapter

升级版ComfyUI InstantID 换脸:FaceDetailer + InstantID + IP-Adapter

在使用ComfyUI的InstantID进行人脸替换时,一个常见问题是该工具倾向于保留原始参考图的构图,即使用户的提示词与之不符。 例如,即使用户提供的是大头照并请求生成全身照,结果仍是大头照,没有显示出用户所期望的构图。 同样,从半身照生成全身照的工作流也会遇到同样的问题——生成的图像仍然是半身照。 为了克服这一挑战,我设计了一种新的工作流程,该流程可以将参考图中的人脸替换到任意一张照片上,而不受原始构图的限制。 这种方法不仅提高了创作的灵活性,还确保了生成的图像能更好地符合用户的实际需求。接下来的内容,我们将详细介绍如何实现这一工作流程。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 基础工作流的搭建 首先,使用SDXL生成一张肖像照片。这张照片将作为换脸操作的基底图像。用于换脸的基底图像,你也可以用Midjourney生成,或者是你自己拍摄的照片。这样就非常灵活了。 生成肖像照片 1️⃣ 准备工作:确保在ComfyUI管理器中安装了Efficiency Nodes效率节点。 2️⃣ 设置SDXL节点: 换脸操作 3️⃣ 加载所需节点: 在操作过程中,如果遇到任何疑问或需要进一步的详细说明,可以参考我之前发布的文章,里面使用了LoRA和FaceDetailer进行类似的换脸操作。 添加并配置InstantID以进行换脸操作 步骤 1: 安装和配置InstantID 1️⃣ 安装InstantID:在添加InstantID之前,您需要确保已经在ComfyUI管理器里安装了由cubiq开发的InstantID节点。这个节点是实现高质量面部替换的核心。 2️⃣ 配置节点: 步骤 2: 准备参考图像 3️⃣ 上传参考图: 步骤 3: 调整参数并连接 4️⃣ 连接节点: 5️⃣ 连接输出端口: 开始换脸操作 6️⃣ 执行换脸: 我们来对比下脸部参考图和换脸以后的图像。感觉有些不太像。 很多情况下,再加入IP-Adapter可以提高一些换脸的相似度。我们来接着添加IP-Adapter。 添加IP-Adapter以提高相似度 步骤 1: 安装和配置IP-Adapter 1️⃣ 选择IP-Adapter节点: 2️⃣ 配置IP-Adapter FaceID模型: 3️⃣ 连接IP-Adapter: 步骤…

在ComfyUI中用LoRA换脸,实现超高相似度

在ComfyUI中用LoRA换脸,实现超高相似度

在之前的一篇文章中,我介绍了如何在WebUI中利用Adetailer插件和自己训练好的LoRA为图片中的人物换脸。本文将进一步展示如何在ComfyUI中执行类似操作。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 准备工作 首先,确保您拥有一个已经训练好的LoRA。如果你不知道如何训练LoRA,可以看看我之前的文章。 这个LoRA可以仅使用被训练人物的大头照。我们的目标是使用LoRA生成与被训练人物高度相似的脸部,然后将其换到任何身体上,实现真正意义上的AI摄影。 安装必要的自定义节点 在开始之前,需要安装两个关键的自定义节点: 1️⃣进入ComfyUI,打开ComfyUI管理器。 2️⃣点击“安装自定义节点”的按钮。 3️⃣搜索“efficiency”并安装“Efficiency Nodes”。 4️⃣继续搜索“impact pack”并下载“ComfyUI Impact Pack”。 5️⃣安装完毕后,重启ComfyUI以确保所有节点正确加载。 搭建基础工作流 设置工作流 1️⃣双击打开搜索栏,输入“eff.”,找到并点击“Eff. Loader SDXL”。此节点整合了加载Checkpoint、VAE、提示词、设置图片尺寸等功能。 2️⃣再次打开搜索栏,输入“eff.”,选择“KSampler SDXL”作为采样器。 3️⃣将这两个节点相连,并正确设置Checkpoint和提示词。 运行并测试图像 4️⃣现在,运行工作流并检查生成的图像,确保没有问题。 添加换脸模块 面部检测与分割 1️⃣双击打开搜索栏,输入“ultra”,选择“UltralysticsDetectorProvider”。它提供了一系列检测面部,手部,人体的模型。然后选择模型名称“bbox/face_yolov8m”进行面部检测。它用方形边界框来检测面部,比下面这几个检测面部的模型体积更大一些,因此效果更好一些。Bbox就是方形边界框”bounding box”的缩写。 2️⃣接下来,添加图像分割节点。打开搜索框,输入“samloader”,选择“SAMLoader”。这个”sam”就是”Segment Anything”的缩写,在WebUI里也有这个插件。它是Facebook的母公司Meta开发出来的图像分割的模型。接着选择模型名称包含字母“h”的模型。它是里面体积最大的,因此效果更好一些。 实现换脸 模型都准备好了,接下来还需要一个具体执行换脸的节点。 3️⃣搜索并添加“FaceDetailer”节点,类似于WebUI中的Adetailer。 4️⃣有了这3个节点还不够,因为我们还需要让这个”FaceDetailer”可以使用单独的模型以及提示词。还需要它可以使用我们训练好的LoRA进行换脸。所以,我们再添加一个支持SD1.5的效率加载器。 5️⃣我们需要对SDXL模型生成的图像进行换脸。所以采样器的图像输出端应该连上”FaceDetailer”的图像输入端。因为我们要”FaceDetailer”使用单独的模型,所以把效率加载器上的模型输出端连上”FaceDetailer”的输入端。下面的端口我们也连一下。然后把这两个处理面部的节点也连接一下。 设置并预览 6️⃣配置“FaceDetailer”所需的模型、LoRA和提示词。 7️⃣在“FaceDetailer”的输出端添加一个预览图像节点。 8️⃣添加一个“把蒙版转化为图像”的节点,连接相应的“mask”端口。 9️⃣添加另一个预览图像节点以便预览处理好的面部蒙版。 🔟在SDXL的采样器图像输出端也添加一个预览图像节点,以便比较换脸前后的效果。 接着再点击”添加提示词队列”按钮,稍等一会儿图片就出来了。 调整与优化 结束语 至此,我们完成了在ComfyUI中使用LoRA进行人脸换脸的全过程。希望您能够利用这些技术,开启您的AI摄影创作之旅。如果您觉得这篇教程有帮助,请不吝点赞和关注,期待我们下次的分享。 另外,给大家推荐我正在跑SD的云平台:https://myaiforce.com.cn/lanrui/

在ComfyUI中使用XYZ图表测试LoRA

在ComfyUI中使用XYZ图表测试LoRA

在之前一篇训练人脸LoRA的文章中,我介绍了如何在WebUI中使用XYZ图表来测试训练好的一批LoRA。 虽然WebUI中的XYZ图表十分实用,但其运行速度相比ComfyUI要慢许多。测试LoRA时,我发现经常需要花费超过半小时来处理大量图像。 因此,本文将详细介绍如何在ComfyUI中使用XYZ图表进行LoRA测试的过程。 这个工作流程非常简单,只需要四个节点。 让我们开始吧。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 步骤一:设置效率加载器和采样器 首先,打开ComfyUI界面。使用鼠标左键双击以弹出搜索节点的工具栏。在搜索框中输入“efficient”,查找并选择“Efficient Loader”节点。 如果你不熟悉这个节点或其功能,可以参考我之前的文章,了解如何在ComfyUI中使用LoRA。 接下来,我们还需要一个采样器来进行图像生成。再次打开搜索栏,输入“efficient”,找到并选择带有“Efficient”标签的采样器节点。 这种采样器是专为与效率加载器配合使用设计的。将这两个节点连接起来后,我们的基础设置就完成了。 步骤二:选择模型并运行测试图像 现在,选择一个适合的模型并输入必要的提示词。然后,运行模型生成一张测试图像。确保图片显示正确无误。 步骤三:接入并配置XYZ图表 将效率加载器和采样器的节点稍微分开,为后续的其他节点留出空间。接下来,在采样器节点找到“script”脚本输入端口。点击并拖动此端口,选择出现的“XY Plot”(XY图表)选项。 将此图表的“dependencies”输入端连接至效率加载器的相应输出端。 然后,设置XY图表的轴。对于X轴,点击并拖动其输入端,选择“搜索”,在搜索框中输入“lora”,选择显示的LoRA图表。 设置测试LoRA的数量(例如10个版本),以及LoRA的路径(我用的是服务器,请根据你的情况适当调整路径格式)。设置Y轴测试的权重数量,例如从0.6到1的权重范围,填入5。此外,填入Y轴的起始值0.6和终止值1。最后,别忘了把Y轴的输出端也连接一下。 步骤四:生成并保存XYZ图表 完成所有设置后,运行图表并检查结果。 通过右击采样器节点并选择“打开图像”,查看X轴显示的10个LoRA及其名称,Y轴显示的是从0.6到1的权重范围。 如果需要保存图像,可以通过右键点击图像并选择“另存为”。 另外,回到ComfyUI设置,确保将“采样器输入图像”参数配置到图表中。 接着在采样器节点的图像输出端拖出一个“保存图像”的节点,再运行一次。这样,XY图表就可以保存到ComfyUI的输出目录,方便后续查看和使用。 以上就是如何在ComfyUI中使用XYZ图表来测试LoRA的完整流程。希望这篇教程对你有所帮助!另外,给大家推荐我正在跑SD的云平台:https://myaiforce.com.cn/lanrui/

ComfyUI 使用 LoRA 极简工作流

ComfyUI 使用 LoRA 极简工作流

ComfyUI的LoRA工作流相信大家都不陌生。开发者提供了大量基于默认节点功能搭建的工作流,其中就包括了如何使用LoRA。 仅仅使用一个LoRA也许还比较简单。只需要在基本工作流的基础上,再添加一个LoRA加载器的节点即可。如果要添加多个LoRA,就需要往里面继续加入LoRA加载器。这使得工作流变得很长,丧失了优雅和高效。 今天,我来介绍在ComfyUI中使用LoRA的极简工作流。如果只使用一个LoRA的话,只需要两个节点。 如果你需要再添加多个LoRA的话,只需要再添加一个LoRA节点。是不是非常简单呢? 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 安装必要的工具 首先,我们需要安装称为“Efficiency Nodes”的一系列自定义节点。这需要你已经安装了 ComfyUI Manager。以下是安装自定义节点的步骤: 1️⃣ 打开 ComfyUI Manager 界面。 2️⃣ 点击安装自定义节点的按钮, 3️⃣在对话框中输入“efficiency”,并点击搜索。 4️⃣选择出现的第一个“效率节点”并安装。安装完成后点击重启按钮。 构建基础 LoRA 工作流 安装完效率节点后,就可以开始构建 LoRA 工作流了: 1️⃣ 双击空白处打开搜索节点的工具栏,输入“eff”,找到“Efficient Loader”节点。 2️⃣ 添加“Efficient Loader”节点,这个节点支持SD1.5,整合了多个功能如Checkpoint、VAE、Clip Skip 跳过层、LoRA、提示词、Latent宽高和批次数量。 3️⃣ 接下来,需要搭配一个采样器来生成图片。再次双击空白处,在搜索框输入“efficient”并选择一个基础版采样器。 4️⃣ 连接这两个节点。简单地用五条直线连接即可。 5️⃣设置模型和 LoRA 参数,写入提示词,然后生成图片。 如何同时使用多个 LoRA 如果需要同时调用多个 LoRA,操作如下: 1️⃣ 在“Efficient Loader”上找到“lora_stack”的输入端。 2️⃣ 拖拽并选择“LoRA Stacker”,以叠加多个 LoRA。 3️⃣ 设置要叠加的 LoRA 数量,例如选择两个:一个调节笑容的…

如何在WebUI中给人物换发型:两种方法详解

如何在WebUI中给人物换发型:两种方法详解

大家好!今天,我们将探讨在WebUI中给人物换发型的两种有效方法。这个过程利用了Stable Diffusion的文生图和局部重绘。接下来,我将一步步带你了解每种方法的操作流程和关键细节。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 方法一:使用文生图和ControlNet 首先,让我们从文生图开始。假设我们已经有了一张图片(这里使用的是Stable Diffusion生成的)。这使得我们可以轻松地发送提示词进行图像生成或局部重绘。 步骤概览 1️⃣ 模型和尺寸设置: 2️⃣ 使用ControlNet进行局部重绘: 3️⃣ 调整和生成: 总结: 方法二:使用图生图和专门模型 第二种方法是使用专门为局部重绘训练的juggerxlinpaint模型,操作起来相对简单而且效果出众。 步骤概览 1️⃣ 准备和设置: 2️⃣ 涂抹和输入提示词: 3️⃣ 调整和生成: 总结: 以上就是在WebUI中给人物换发型的两种方法。希望这些信息对你有帮助!如果觉得有用,欢迎点赞支持。

超高相似度换脸:IP-Adapter+Instant-ID一起上

超高相似度换脸:IP-Adapter+Instant-ID一起上

在上一篇文章中,我们探讨了如何使用LoRA模型和Adetailer插件来实现换脸效果,达到了与斯嘉丽本人极高的相似度。如果您对训练真人LoRA模型感兴趣,欢迎回顾我之前的文章。 尽管LoRA模型的效果卓越,但其训练过程较为复杂。因此,本篇文章将向您介绍一种无需LoRA即可实现高相似度换脸的方法。我使用这种方法得到的换脸效果虽然相较于LoRA有微小的下降,但整体表现依然出色。 众所周知,ControlNet中的IP-Adapter和Instant-ID可以用于换脸,但有时它们的相似度不够高。我将介绍的方法结合了这两者的优势,比单独使用它们能够获得更高的人脸相似度。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 另外,我在这个云平台上运行SD,推荐一下: WebUI Forge的介绍 本篇文章将使用WebUI的进阶版本——WebUI Forge。相比于旧版WebUI,WebUI Forge在性能上有显著提升,甚至超过了ComfyUI,并增加了许多实用的新功能。例如,ControlNet引入了新版的IP-Adapter,预处理器也有所不同。 Instant-ID的预处理器也跟老版本的WebUI里的不一样。 这些变化是我们选择WebUI Forge的原因之一。我发现,在老版本的WebUI中同时使用IP-Adapter和Instant-ID的效果非常差。 要安装WebUI Forge的话,可以访问其GitHub主页(https://github.com/lllyasviel/stable-diffusion-webui-forge)。上面有详细的安装步骤。 我为大家下载了一键安装包。下载地址是https://pan.baidu.com/s/1HGp5eYb-a0OsRrNOOO5sTg?pwd=j425。 解压之后,使用run.bat这个文件来运行,使用update.bat这个文件来更新。保持更新很重要,可以避免老版本的Bug。 换脸基础设置 1️⃣选择SDXL底模 首先,打开WebUI Forge的界面,我们需要选定一个SDXL的底模作为我们的起点。选择SDXL模型是因为Instant-ID当前仅对此模型提供支持,确保了我们能够利用最新技术实现换脸。 2️⃣局部绘制和上传照片 接着,进入到图生图的界面,并选择“局部绘制”选项。这一步骤是准备将我们想要进行换脸的照片上传至平台。上传照片后,涂抹脸部区域以指定将要更换的部分。记得,涂抹的区域应略大于实际的脸部区域,以便我们有足够的空间调整人物的脸型,这是一个关键步骤,确保最终效果的自然和谐。 3️⃣调整蒙版模糊度和使用Soft Inpainting 完成脸部区域的标记后,滚动到页面下方进行进一步的设置: 4️⃣填写提示词和选择采样器 5️⃣调整宽高和重绘强度 最后,点击“三角尺”图标自动将宽高设置为原图尺寸,以保持图像比例的一致性。同时,适当调低“重绘强度”以确保换脸后的脸部与原图能够自然衔接。重绘强度设置过高可能导致不自然的效果,因此,根据生成的图像再做微调是非常必要的。 在成功安装并进入WebUI Forge界面后,接下来的步骤是配置ControlNet以实现精确的换脸效果。ControlNet的设置是核心过程之一,涉及到IP-Adapter和Instant-ID的应用。这部分指南将详细介绍如何正确配置ControlNet以及相关组件。 设置第一个ControlNet(使用IP-Adapter) 1️⃣启用ControlNet:首先,展开“ControlNet Integrated”选项,并启用第一个ControlNet。 2️⃣选择IP-Adapter:在ControlNet配置中,选择IP-Adapter作为工具。预处理器和模型应已预设选择,无需进一步配置。如果你没有这个模型的话,可以看看我之前介绍IP-Adapter的文章。 3️⃣上传控制图像:勾选“Upload independent control image”并上传一张斯嘉丽的大头照作为参考。选择适当的头像至关重要,因为不同的头像可能会直接影响换脸效果的质量和准确性。 4️⃣调整权重:向下滚动并适当调整权重。需要注意的是,没有固定的权重设置标准,需要根据具体情况和效果进行调整。 5️⃣添加LoRA提示词:在提示词区域添加LoRA,以配合IP-Adapter使用。虽然这对最终效果的影响不大,但适当的调整可以微调细节。 设置第二和第三个ControlNet(使用Instant-ID) 继续设置第二个和第三个ControlNet,这些步骤是为了使用Instant-ID技术优化换脸效果。这部分配置关键在于下载和安装正确的模型,以及精确地调整设置以适应特定的换脸需求。 下载和安装Instant-ID模型 1️⃣访问GitHub页面:所有必要的模型下载链接和安装指南都可以在指定的GitHub页面(https://github.com/Mikubill/sd-webui-controlnet/discussions/2589)上找到。这些信息提供了详细步骤,确保用户能够顺利进行配置。 2️⃣下载模型:根据链接直接下载所需的Instant-ID模型。或者,访问我提供的度盘链接:https://pan.baidu.com/s/1dfX4v9O1uGZALsHpnDolHA?pwd=hjk2。 3️⃣模型重命名与放置: 设置第二个ControlNet 1️⃣启用ControlNet:在WebUI Forge界面中,展开第二个ControlNet的设置,并勾选启用。 2️⃣配置选项: 设置第三个ControlNet 1️⃣预处理器选择:选择InsightFace (Instant-ID),这是另一种用于识别脸部特征的预处理器。 2️⃣模型选择:此处选择ip-adapter_instant_id_sdxl模型,确保与第二个ControlNet的配置相互补充。…

使用LoRA的最佳方式:ADetailer+LoRA换脸

使用LoRA的最佳方式:ADetailer+LoRA换脸

在上一篇文章中(https://myaiforce.com.cn/real-life-lora-training/),我分享了如何为好莱坞女明星斯嘉丽训练一个高度相似的LoRA模型。 我专门选用了斯嘉丽的大头照进行训练,以便AI能够集中精力学习她的脸部特征,从而生成的图片与本人高度相似。 然而,当尝试生成半身或全身照时,我们会遇到一些挑战。比如我用这个提示词,并且把LoRA添加进去,生成的图片和斯嘉丽本人并不像。 而且,因为我训练LoRA使用的是SD1.5的底模,所以我只能用基于SD1.5的模型来生图。 本篇文章旨在介绍如何利用ADetailer插件克服这些挑战,让你训练的LoRA模型可以自由使用任何底模,生成不同风格的照片。它实际上就是单独把人脸从图像中分离出来,然后用LoRA生成的大头照进行换脸。 看,这是我用来换脸的3张原始图片。 这是我用斯嘉丽的LoRA换脸之后的图片。 效果还不错吧。接下来让我来演示如何操作。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): LoRA+ADetailer换脸步骤 让我们详细了解如何通过几个简单的步骤使用ADetailer进行换脸操作: 一、准备阶段 首先,确保你已安装ADetailer插件。如果你不熟悉如何操作,我之前的文章中有详细的安装和使用指南(https://myaiforce.com.cn/stable-diffusion-adetailer/)。 二、上传图片并选择配置: 访问WebUI的图生图界面,这是开始我们换脸操作的地方。 三、设置采样器与采样步数 四、调整图像尺寸与其他参数 五、配置ADetailer插件 六、精细调整与生成 七、使用不同的底模进行换脸 八、生成与调整换脸图片 一旦你完成了ADetailer插件的所有配置,点击“生成”后,换脸过程便正式开始。以下步骤将帮助你理解生成后的预览,以及如何根据预览结果对换脸区域进行微调,确保最终效果达到满意标准。 查看与调整换脸区域 1️⃣ 生成预览: 在点击“生成”按钮后,系统会根据你之前的设置开始处理图片。处理完成后,在预览窗口中,你将看到原图的人脸周围出现了一个方框,这个方框标识了换脸的具体区域。 2️⃣ 调整换脸区域大小: 如果你觉得自动生成的换脸区域大小不够精确或需要调整,可以轻松修改。只需展开“蒙版预处理选项”,然后调整滑块来增大或缩小换脸区域。这一步骤允许你细致地控制换脸的范围,确保换脸效果的自然和谐。 优化换脸效果 在查看生成的换脸图片后,如果你发现效果未达到预期,可以通过调整ADetailer的降噪强度来进行优化。适当调整降噪强度可以帮助平滑脸部区域与原图的融合。 使用ADetailer插件进行文生图换脸 值得一提的是,ADetailer插件不仅可以在图生图中使用,也同样适用于文生图。这意味着你可以直接在文生图环境下生成一张图片,然后使用ADetailer进行直接换脸。操作方法与在图生图中大致相同,提供了一个灵活而强大的工具,让你的创作不受限于特定的环境或模式。 结论 通过本篇文章,你应该已经掌握了如何利用ADetailer插件和LoRA模型进行高质量的换脸操作。这不仅可以让你的LoRA模型跨越原有的限制,还能创造出各种惊人的效果。希望这篇教程对你有所帮助,感谢阅读!最后,给大家推荐我正在跑SD的云平台:https://myaiforce.com.cn/lanrui/。