最新文章

保留面部特征,创造真实皮肤质感 (ComfyUI工作流)
如果你一直在尝试使用生成AI来创作肖像,可能会遇到一个常见问题:皮肤通常看起来过于光滑,几乎像塑料一样。 这种缺乏细节的现象让人很容易看出这是由AI生成的,从而降低了其真实感。 在这篇文章中,我们将探讨如何通过我开发的ComfyUI工作流来解决这个问题。 比较AI生成的皮肤纹理 为了更好地理解这个问题,让我们仔细看看几个AI生成的肖像示例。在第一个示例中,如果我们放大一下人物的脸部,可以看到她的皮肤缺乏细致的细节。这使得图像呈现出一种人造的、塑料般的外观,这正是AI生成的明显特征。 这是另一个示例,使用Flux模型的fp8版本创建。虽然这个版本确实包含了一些皮肤细节,但它们仍然感觉不自然,无法完全捕捉到真实人类皮肤的复杂性。 即使是像PixelWave这样高级的模型,皮肤纹理仍然可能看起来略显不足,存在改进的空间。这些示例突显了当前AI模型的一个关键局限性:它们往往难以生成真正逼真的皮肤纹理。尽管像Flux和PixelWave这样的模型令人印象深刻,但它们并不足以解决这个问题。这就是ComfyUI工作流的用武之地。 介绍ComfyUI工作流 我们将使用的ComfyUI工作流旨在解决现有AI模型的不足。该工作流基于SD1.5模型,不仅在GPU资源上高效,而且生成的皮肤纹理感觉更加自然和生动。 让我们看一些前后对比的例子,看看这个工作流可以带来怎样的变化。 在第一个示例中,我们从一张典型的过于光滑、塑料般的皮肤图像开始。 在经过工作流处理后,皮肤纹理变得更加粗糙和自然。为了进一步增强真实感,我使用了LoRA添加了雀斑,为图像增添了额外的真实感。 在另一个示例中,放大人物的眼睛可以看到睫毛的细致细节。 鼻子上的雀斑也增强了图像的真实感。 最棒的是这个工作流允许你根据自己的喜好自定义雀斑的数量。 现在你已经看到了这个工作流能够实现的效果,让我们逐步讲解如何使用它。 下载这个工作流:https://www.liblib.art/modelinfo/160ee2f0dd754e1eb3ad90f3e2d47a5a 视频教程和模型安装:https://www.bilibili.com/video/BV1rZPCeoEVZ/ 发电解锁其他进阶工作流:https://afdian.com/a/myaiforce 节点组1:设置工作流 要开始使用ComfyUI工作流,我们将首先关注第一个节点组。这一步主要是为生成真实的皮肤纹理奠定基础。以下是开始的步骤: 随着模型和LoRA的加载,第一个节点组现在已完全配置。这为接下来的步骤做好了准备,在这些步骤中,我们将微调提示词并进一步完善图像。接下来,我们进入第二个节点组! 节点组2:配置提示词 第二个节点组主要是为采样过程设置提示词。这一步确保生成的图像与您的创意愿景和原始肖像紧密对齐。以下是有效配置提示词的方法: 这种配置确保AI准确理解你的目标。让我们继续进入下一个节点组! 节点组4:重绘肖像以实现真实细节 第四个节点组是核心——重绘上传的肖像以增强其真实细节。这一步聚焦于细化皮肤纹理,并确保面部特征保持完整。以下是如何使用这个节点组的步骤: 节点组3:皮肤平滑处理 第三个节点组专注于平滑皮肤并消除在早期处理步骤中可能出现的任何虚假的细节。这一步确保为进一步的优化提供一个。以下是其工作原理: 节点组5:优化面部 第五个节点组是我们优化面部的地方,以确保肖像尽可能看起来真实。这一步专注于保留眼睛和嘴巴等关键区域的完整性,同时增强整体细节。 结语 我鼓励你下载这个工作流,尝试各种参数,看看它如何提升你的AI人像。 我希望这个工作流能为你的创意过程带来很大的价值。希望你能享受到使用这个工作流的乐趣,并创造出令人惊艳的作品!

ComfyUI背景融合工作流,人像产品都适用,SDXL 5步出图
在上一篇文章中,我发布了一个 ComfyUI 的换背景的工作流,能够将产品或人像完美地融入新的背景。它的背景是由AI生成的,不过有些情况下我们已经有了一个现成的背景,这时候可以用我今天给大家介绍的这个工作流。 实际应用 假设你有一张人像,你希望将主体置于一个全新的背景中。 第一步是移除现有的背景。这种工作流足够灵活,可以移除简单或复杂的背景。 一旦背景被移除,主体会被重新定位到新场景中。 真正的“魔法”发生在我们使用Lightning版本的SDXL模型的时候。该模型能够重新调整主体的光影效果,确保光线方向、高光和阴影与新环境相匹配。 例如,如果原始光线来自右侧,但新场景的光线来自左侧,SDXL模型会相应地调整主体的光影,从而使主体看起来更自然,与新背景的阴影和高光无缝融合。 不仅限于人物,这种工作流在处理产品时同样出色。 不论是将一个人物放置在沙滩上,还是将一个产品置于摄影棚环境中,其应用场景几乎是无穷的。通过这一流程,你可以获得令人惊艳的效果,提升项目的视觉吸引力。 ⚡️发电下载工作流:https://afdian.com/p/a31569c0d71d11efac785254001e7c00 节点组1:加载模型 现在,让我们一步步学习如何使用这一工作流。 在第一个节点组中,我们的主要任务是加载必要的模型并为图像处理做好准备。这一步非常重要,因为它为整个工作流奠定了基础。以下是具体步骤: 节点组2:移除背景 在第二个节点组中,我们的目标是有效移除主体图像的背景。这一步对于隔离主体并为其融入新背景做好准备至关重要。以下是具体步骤: 节点组3:主体重新定位、提示词生成和Canny边缘图像创建 在这个节点组中,我们的重点是将主体定位到新背景中,并优化图像的整体外观。以下是具体步骤: 节点组4:重绘和阴影调整 在这个节点组中,我们专注于通过重绘来优化图像,增强光影效果,确保主体能够自然地融入背景。以下是具体步骤: 通过以上步骤,主体可以自然地融入新背景,光影效果也能得到极大的优化。 节点组5:创建和修改阴影遮罩 在这个最终的节点组中,我们重点是生成和优化阴影遮罩,以提升整体图像质量。以下是具体步骤的详细说明: 节点组6:恢复细节与调整阴影 在这一部分,我们旨在恢复重绘过程中丢失的细节,并解决阴影融合问题。以下是步骤的详细指南: 故障排除与优化技巧 在处理复杂工作流时,遇到问题是很正常的。以下是一些帮助你排查问题并优化结果的提示: 通过这些步骤和技巧,你可以显著改善图像的阴影质量和整体表现。 总结 这一工作流赋予你增强图像的能力,通过高效管理阴影和背景,实现真实且视觉吸引力更强的效果。通过遵循上述步骤和提示,你可以获得令人满意的成果。记住,掌握这一工作流的关键在于不断尝试。大胆探索新想法,挑战创造力的边界。每一次尝试都能让你更接近发现创新技术和效果的目标。

万能换背景工作流 V4 更新,产品人像通用,改变光效保留细节
在本文中,我将介绍我对 ComfyUI 换背景工作流的最新改进。 过去几个月,我发布了多个更新,比如用了 IC-Light 和基于 Flux 的 ControlNet 提升效果。但最近,我开发了一个更快速、更强大的版本。 概述与新功能 在之前的 ComfyUI 版本中,IC-Light 和基于 Flux 的 ControlNet 可以帮助主体融入新背景。虽然效果不错,但这些方法速度慢且资源消耗大。更新后的工作流提高了效率与真实感,实现了更快的处理速度和更自然的结果。 主要改进: 工作流示例 1:人像换背景 让我们从人像换背景开始。这是上传的图片。 首先,我使用这个工作流移除背景,并将主体重新定位到我们定义的新画布上。 轮胎和脚撑的某些部分被移除,因为它们将被沙地填充,新的背景设置在沙漠中。 接下来,通过使用 10 个采样步骤的 SDXL checkpoint的精简版本,我们可以改变主体光影并将其与新背景融合。在这个过程中,大部分主体细节得以保留,而这只需约 6GB 的 显存。 剩下的三个节点组使用基于 Flux 的checkpoint量化版本以及相同的 SDXL 进一步增强结果。 工作流示例 2:产品摄影换背景 现在,我们来看另一个例子:产品摄影,具体来说是替换 Dr Pepper 软饮料罐的背景。目标是将产品融入新的环境,同时保留细节。 这是用于换背景的上传图片。…

用区域裁剪实现更好的Flux局部重绘【ComfyUI工作流】
Hello 大家好,我是Vito。在本文中,我们将深入探讨一个先进的 ComfyUI 局部重绘工作流,旨在实现更大的灵活性和高效性。在我之前的文章中,我介绍了使用不同版本的 Fill 模型进行扩图和局部重绘的结果对比,以及一个实用的扩图工作流。 今天,我们将重点关注局部重绘,特别是如何更换物品、修正扭曲的面部,甚至修复那些棘手的 AI 生成的手部。 对于喜欢通过视频内容深入了解 ComfyUI 的朋友们,欢迎去B站查看配合本文的精彩视频教程: https://www.bilibili.com/video/BV144kMY1ENk 让我们开始吧! 高度的通用性 我开发的这个工作流具有高度的通用性,并且与量化模型配合使用效果良好,使其在显存使用上更加高效。无论你是修改细节,比如更换帽子或修复手部,这种方法都能帮助你以最小的麻烦实现高质量的结果。 让我来详细展示如何使用这个设置。 1. 基础设置 步骤1:加载模型 首先,绕过其他节点组,激活第一个节点组,该组负责加载模型。我已经为你预先配置好了这一部分,所以我们可以直接运行工作流。 组中的第一个节点加载 Fill 模型,这个模型既适用于扩图任务,也适用于局部重绘任务。在本次演示中,我使用的是量化的 Q5 版本模型 [1]。它只占用 8 GB 的显存,管理起来更加轻松。如果你的显存不足,可以选择 Q4 版本,只需 6.8 GB。 经过我在之前的文章中验证,Q5 和黑森林实验室的 20 GB 模型在结果上的差异实际上非常小。你可以放心地使用这些较小的版本进行第一轮局部重绘。为了速度和效率,我在右侧的节点中添加了一个 Turbo LoRA [2],以加快图像生成速度。 Fill 模型下方的节点 [3]…

Flux Redux 高级应用:换脸换背景换姿势,效果很自然
如果你曾尝试为一张人像照片更换背景,你一定了解让主体与新场景的光线和氛围完美契合有多么困难。这时候,黑森林实验室推出的 Flux Redux 模型便能派上用场。它擅长在主体与背景之间保持光线和谐,确保最终效果自然流畅。 Redux 在某些方面与 IP-Adapter 类似,但同时又具备独特的能力。下面我们将探讨如何利用 Redux 的两种工作流——基础版和高级版——来实现无缝的背景替换。 如果你喜欢通过视频深入了解 ComfyUI,不妨在B站观看本文的配套视频教程: https://www.bilibili.com/video/BV1B5qSYTERh 基础工作流与高级工作流 这两种工作流的目标都是通过提示词(prompt)为图像更换背景。基础工作流使用整张原图作为参照来保持光照一致性,而高级工作流则仅聚焦主体,让背景独立生成,从而获得更自然的效果。 1. 参考方式的差异 2. 人脸的一致性与细节 3. 构图的灵活性 4. 自然融合效果 5. 高级工作流更多示例 下面是一些对照示例:左侧为原始参考图像,右侧为高级工作流的生成结果。请注意高级流程中的人脸是如何更好地契合新背景的环境光线的。 理解基础工作流 现在我们已对比了两种流程的结果,接下来从基础流程开始,了解其具体步骤。尽管基础流程有一定局限性,但它简单有效,非常适合用来入门背景替换任务。 此外,该工作流和模型可以免费获取,下载链接在此: 1.加载模型与设置提示词 初始节点组会加载必要的模型,并为新背景设定提示词,从而打下基础。 2. 去除背景 “Image Remove Bg” 节点会将原背景移除,仅保留主体。 3. 生成轮廓图 Canny 模型(来自黑森林实验室)会为主体生成轮廓图。 4. 利用轮廓图生成图像 借助这个轮廓图,来自黑森林实验室的 Canny…

Flux官方最新王炸模型,7合1工作流 (ControlNet+局部重绘+扩图+风格迁移)
黑森林实验室(Black Forest Lab),作为革命性 Flux 模型的创造者,最近推出了一套强大的新工具,旨在重新定义我们在 ComfyUI 中处理图像生成和编辑的方式。这些尖端模型——Fill, Canny, Depth 和 Redux——带来了诸如局部重绘(inpainting)和扩图(outpainting)、精确边缘检测 (Canny)、深度映射 (Depth) (Depth)以及创意风格迁移等高级功能。 然而,真正让 Flux 工具脱颖而出的是它的性能。在一对一的基准测试中,Flux 模型始终优于类似的专有解决方案,如 Midjourney ReTexture 和 Ideogram V2。例如,Flux.1 Fill [pro] 模型目前被认为是最先进的局部重绘模型,在质量和效率上都无出其右。同时,Flux.1 Depth [pro] 模型在深度感知任务的多样性和可靠性上超越了 Midjourney ReTexture。 本文将深入解析这些模型的独特功能,并为您提供一个高效的工作流,帮助您快速上手。 功能与工具概述 全新 Flux 模型套件——Fill, Canny, Depth 和 Redux 提供了顶级的性能和多功能性。以下是每个模型的功能以及它们如何超越竞争对手的简要介绍。 1. Fill 模型:局部重绘与扩图的强大引擎 Fill…

Flux微调模型大比拼:PixelWave vs Shuttle 3 Diffusion vs StoiqoNewreality vs FluxRealistic
Flux模型因其高质量的结果和多样的应用场景而在AI社区引发了极大兴趣。然而,众多选择使人难以抉择——从 黑森林实验室 的官方Flux模型(Pro、Dev、Schnell)到众多微调版本,究竟该从哪开始?哪个模型才是最佳选择? 本文旨在阐明官方 Flux模型 与 基于Flux的微调模型 之间的区别,同时全面比较4款流行的基于Flux的微调模型:Shuttle 3 Diffusion、fluxRealistic、PixelWave 和 StoiqoNewreality。 本文并非简单罗列其功能特点,而是基于4个关键性能维度进行深入测试: 通过深入对比,我们可以更好地了解每个模型的优劣势,从而为自己选择最适合的工具。 视频教程: 首先,让我们从最基础的部分开始,了解由 黑森林实验室 开发的原始 Flux 模型,以及它们如何演变为这些微调模型。 什么是Flux模型? Flux模型由 黑森林实验室 开发,是一系列AI绘画模型,可以生成高质量的图片。它们分为3个官方版本:Pro、Dev 和 Schnell,每种版本在质量、灵活性和授权上各有不同。 Flux的三个版本 Flux模型的演变 当 Dev 和 Schnell 版本 首次发布时,它们存在一些显著的缺点: 这些限制使得许多用户难以使用这些原始Flux模型。不过,后续的改进解决了这些问题: 这些改进为炼丹师们利用Schnell或Dev版本作为基础微调和发布自己的Flux模型铺平了道路。 基于Flux的微调模型 基于Flux的微调模型是使用Schnell或Dev模型为基础,由炼丹师微调而成。这些模型增加了特殊功能或改进了图像质量。本文将分析以下4个微调模型: 这些checkpoint经过优化,与最初的 Flux 模型截然不同,但仍植根于相同的架构。 有了前面的基础,接下来让我们看看测试方法以及如何在关键性能维度上对它们进行比较。 测试方法 为了评估4个基于Flux的微调模型(Shuttle 3…

基于RF Inversion和Flux的人像美化工作流
在本文中,我将带您了解最新的人像美化工作流程,通过简单几步即可提升图像。这个流程专注于自然的增强效果,改善肌肤、发质以及布料的质感,同时避免照片看起来过度修饰。不论是低光环境的照片、模糊图像,还是年长对象的肖像,这一工作流都能提供帮助。 工作流效果 在介绍步骤之前,让我们先看看此工作流能够带来的改变: 肌肤增强效果 肌肤看起来更加平滑细致,同时保持自然效果。这不仅仅是基础的磨皮——睫毛、眉毛和头发的细节也得到了微妙提升,显得更平滑和清晰。连衣物的布料纹理也变得更干净和锐利。 拯救废片 该工作流可以改善一些具有挑战性的图像,例如因烟雾导致面部模糊的照片,可以澄清整体图像,而不会扭曲面部特征。 降噪效果 该流程能有效处理由于光照条件不足而产生的噪点,使它们显得更加清晰和精致。 减龄效果 如果您在处理年长人物的肖像,这个流程可以使对象的外观显得年轻。 视频教程: 模型和工作流下载 工作流下载:https://www.liblib.art/modelinfo/d345b11851a04f12bf5305fdaa85d72f 💎发电专属内容(视频对应的进阶指南、更多示例、资源和问答支持): https://www.patreon.com/posts/portrait-with-rf-115906538 模型安装: 主要节点: 如果因为连不上国外网络而无法下载这些节点,可以使用云平台租赁显卡。在云平台上下载节点以后,在线使用或者下载到本地。 开始使用该工作流程 在深入学习之前,请先观看另一个视频,了解什么是RF Inversion以及它的更多应用场景:https://www.bilibili.com/video/BV1QPSiYSEpe/ 要尝试这个工作流程,您需要以下资源: 步骤指南 1. 上传您的照片 首先,将您的图像上传到该工作流。 2. 调整图像尺寸以适应SDXL 3. 使用“Sharp&Soft”节点调整锐度 4. 自动调整亮度、对比度和亮度 5. 自动生成提示词 6. 使用RF Inversion提升细节 7. 融合原始细节 8. 使用Sharp&Soft节点进一步增强纹理 9. 图像放大 10….

EcomID vs. Flux PuLID vs. InstantID -> 100%相似度人脸迁移工作流 V2
大家好,今天我们将对比三种AI换脸技术:基于Flux的PuLID、基于SDXL的InstantID以及最近推出的基于SDXL的EcomID。 你可以在这里免费下载这个工作流:https://www.liblib.art/modelinfo/67e6949d10f844c3bc35c15add791aa1 这三种技术各有优势,但都还无法达到100%的人脸相似度。为了追求更真实的效果,我之前开发了一个能够达到接近100%相似度的工作流,并进行了多次优化和增强,特别加入了高清修复的部分。接下来,我将详细讲解每个节点组的功能,帮助大家了解实现高相似度人脸的原理。 本视频对应的视频教程: https://www.bilibili.com/video/BV1E5DRYSEEq/ 工作流概览 首先,我们来看一下这次用来对比三种换脸技术的工作流。大家可以在本文末尾找到下载链接。 基础设置 工作流左边是一些基础设置区域,主要用于: 这些设置通过“Bus Node(节点总线)”和“Anything Everywhere(全局输入)”节点传递到右侧的各个换脸节点组,从而实现参数的集中管理。这种方式可以减少节点之间的连接线,使工作流更加简洁高效。 例如,EcomID和Flux PuLID都需要用到PuLID的Eva Clip模块,这里就通过“Anything Everywhere”节点统一传递,免去了重复连接的麻烦。同时,加载InstantID的节点也通过“Anything Everywhere”传递到右侧供EcomID和InstantID共享。 此外,“Seed Everywhere(全局种子)”节点确保了所有换脸节点组使用相同的种子,以保证对比结果的公平性。 三种换脸技术的节点组 在右侧,我们可以看到三个换脸节点组: 每个节点组生成的图片会被拼接在一起,与原始人脸参考图进行对比。我通过“Image Caption(图像字幕)”节点为每张生成图像添加了字幕,注意需要填写ttf格式字体的路径,否则会报错。 效果对比 在对比了多个示例后,我认为InstantID在大部分情况下的相似度最高。不过,具体效果因人而异,有时PuLID或EcomID的效果也很接近原图。 总体而言,换脸技术的优势在于: 但缺点是生成的人脸和真实人脸的相似度仍有不足。为此,我开发了一个号称能够实现100%相似度的工作流。经过用户反馈和优化调整,我们现在来深入讲解这个工作流的细节。 完美人脸匹配的逐步工作流解析 现在,我们来详细解读我开发的优化工作流的各个部分,以提高人脸相似度并解决常见问题,如脖颈处的接缝和其他不必要的瑕疵。 1. 初始设置与遮罩 2. 使用 SDXL 进行基础构图 3. 处理常见瑕疵并增强细节 使用 Flux 修复接缝和瑕疵 额外重绘以进行进一步修复 4. 最终处理与放大 手部细节优化 高清放大以获得高分辨率效果…

基于RF Inversion的风格和人脸迁移,8步逆采样出图,比Flux IP-Adapter强多了
在这期视频中,Vito向大家介绍了利用RF Inversion技术开发的ComfyUI工作流,分享了其诸多强大功能及相关使用要点: ### 一、工作流亮点与获取方式 – **功能超酷**:该工作流结合阿里妈妈的Turbo LoRA,用Flux生成图片超快,仅8步即可出图,能实现多种令人惊叹的效果。 – **免费下载**:工作流链接放在视频下方描述里,可免费获取。 ### 二、多样的图片处理效果 – **风格迁移**: – 可实现“Semantic Style Transfer”,如将参考图的传统风格迁移到生成图上,人物姿势也能相似,且无需IP-Adatper和ControlNet控制,靠“RF反转”及提示词就能达成。 – 除写实风格外,还能迁移漫画、插画、绘画等风格,通过调整工作流参数可改变风格迁移方向,如用不同参数跑70张图,能呈现从写实到插画风格的过渡及构图迁移。 – **光影效果**:只需一张参考图,就能让处理后的光线更自然,还能保持人脸相似度,使皮肤更细腻、头发更顺,同时可实现光线、色彩、构图的同时迁移,甚至能实现摄影里的柔焦功能,还可将低质量图片转化为高质量图片。 ### 三、工作流相关设置与节点介绍 – **节点分组及功能**: – 工作流共分4个节点组。左边组用于基础设置,如上传参考图、设置尺寸、填写提示词等。 – 右上角节点组对参考图进行逆采样得到潜空间里的噪波图像。 – 下面的节点组是PuLID,可决定生成图片里人物的样子,不想生成人像可绕过。 – 最下面节点组对噪波图像重新采样生成最终图片。 – **关键节点操作**: – **上传参考图**:这步很关键,要选接近想要效果的图片,可对参考图进行水平翻转等操作,若参考图有不理想细节,可通过提示词或局部重绘改动。 – **逆采样节点组**:此节点组进行“RF反转”得到噪波图像,因用了“turbo alpha LoRA”加速,“Steps步数”一般填8步,追求极致效果可改更高步数,且要和最后节点组里的“基础调度器”设置一致。 – **Flux PuLID节点组**:不熟悉可看相关视频。 –…

超简单 Flux 换背景工作流:结合最新 ControlNet 深度 Depth 模型
在本篇文章中,我们将深入探讨如何使用 Flux ControlNet Depth 模型进行换背景。这种方法是我之前基于 Flux 模型换背景工作流的简化版。虽然旧的工作流程功能强大,但它非常复杂且运行缓慢。今天,我们将学习一个更快速、更易用的替代方案。 欢迎去B站观看本文对应的视频教程: Flux ControlNet Depth 模型的新特性 这款由 Jasper AI 开发的全新 ControlNet 模型的最大优势是,它可以与现有的 SDXL ControlNet 节点和采样器兼容,无需专门的Flux ControlNet 节点。这大大简化了搭建过程,使其更容易集成到您的现有工作流中。 关键优势: 模型下载 在开始之前,请从 HuggingFace下载 Flux ControlNet Depth 模型。下载后,请按照以下步骤操作: 如果您在流程中看到某些节点缺失,只需安装它们即可确保所有功能正常运行。 工作流程概览 该新工作流程分为三个主要部分: 整个流程大约包含 30 个节点,运行速度比以往更快。例如,在一张 3090 GPU 上,它可以在大约 1 分钟内生成一张图像。使用 Hyper LoRA 的…

Flux ControlNet 放大工作流:结合 Florence 2 和 GGUF 量化
大家好!今天我很高兴与大家分享一个使用 Flux 模型放大图片的 ComfyUI 工作流。在这篇文章中,我们将介绍如何设置这个工作流、其独特功能,并一步一步教你如何使用它来获得高质量的放大效果。 效果展示: 工作流简介 该工作流使用 Flux 模型对图片进行放大,同时保持高倍放大后的细节和清晰度。它具有一些独特的功能,如支持低显存的硬件设备以及使用 Florence2 自动生成提示词。 接下来,让我们深入了解如何在 ComfyUI 中设置和使用这个工作流。 B站教程:https://www.bilibili.com/video/BV1QBxse5Ebh/ 工作流可以在B站下载。 第一步:设置工作流 下载必要文件 该工作流的关键部分是 ControlNet 节点,它使用 Jasper AI 开发的 ControlNet 放大模型。请按照以下步骤下载并设置相关文件: 完成以上步骤后,ControlNet 模型就可以在 ComfyUI 工作流中使用了。 第二步:在 ComfyUI 中配置工作流 下载并配置好文件后,接下来我们来逐步配置和使用放大工作流。 上传图像 设置放大倍数 调整放大尺寸 如果放大后的尺寸不符合你的预期,可以暂停工作流,并调整放大倍数,直到达到理想的输出尺寸。 第三步:配置 ControlNet 这里是我们前面下载的 ControlNet 放大模型的应用部分。按照以下步骤进行设置: 选择…

Flux | 使用提示词和LoRA控制布局和背景清晰度
大家好!今天,我很高兴与大家分享一些我在使用Flux模型时学到的重要技巧。在过去的几天里,我生成了大约500张图片,通过调整提示词和LoRA,探索了如何通过不同的提示结构来控制图像的布局和背景清晰度。 在这篇文章中,我将详细介绍这些技巧,并展示如何在您自己的图像生成项目中使用它们。 让我们开始吧! 你还可以查看本篇文章的精彩视频教程: 1. 使用提示词结构控制布局 控制图像布局最有效的方法之一是通过调整您在提示词中描述场景的方式。具体来说,您提供的细节程度以及描述的顺序对主体在画面中的大小和背景的清晰度有重大影响。 示例 1:主体优先 请看以下提示词: A fisherman wearing a worn cap and a thick sweater, net slung over his shoulder, face weathered by the sea; a lively harbor at dawn. 一个戴着破旧帽子、穿着厚毛衣的渔夫,肩上挂着渔网,脸上布满海风的痕迹;黎明时分的热闹港口。 在这个例子中,大部分细节都集中在渔夫身上,而对港口的描述很简略。因此,生成的图像会主要聚焦于渔夫,渔夫在画面中占主导地位,而背景(港口)则模糊且不太详细。 示例 2:背景优先 现在,让我们将重点转移到背景上。将提示词修改为: A lively harbor at dawn,…

太万能了!用这个 Flux ControlNet 工作流给任何 人/东西 换背景
学习使用 ComfyUI 和 Flux 模型轻松更换照片背景。在保留细节和质量的同时改变图像。

用 Flux 生成的皮肤太假?用这个工作流解决!
在上一篇文章中,我们对 Flux 和 Midjourney 进行了比较。 尽管 Flux 取得了令人瞩目的进步,但它存在一个明显的不足——生成的皮肤塑料感很强。 例如,请看这张 Flux 生成的图像。 尽管使用 LoRA 增加了大量细节以提升逼真度,但某些区域仍显得很不自然。比如,脸部的皮肤纹理缺乏真实质感,胡须的方向也显得不自然。 为解决这个问题,我开发了一个 ComfyUI 工作流程,旨在增强 Flux 模型生成的肖像效果。 以下是此工作流的视频教程,包含工作流和模型的下载链接: 工作流的主要功能 本工作流程有三个突出特点: 1️⃣速度:我选择不使用“面部细化器(FaceDetailer)”或其他资源消耗大的细化器,因为 Flux 本身就对显存需求较大,增加更多细化器会降低处理速度。 2️⃣全面增强皮肤纹理:它不仅能改善面部皮肤,还能提升全身的皮肤质感。 3️⃣可选眼部细节增强:有时,Flux 会生成很漂亮的眼睛,而添加更多细节可能会减弱眼神光。使用此工作流,你可以选择增强眼睛细节或保持原样。 工作流概述 工作流分为三组: 1. 使用 Flux 生成人像 第一组使用 Flux 模型生成肖像。起初,生成的肖像皮肤可能会显得过于光滑和不真实。 解决方法如下: 我在本例中使用了“schnell fp8” 模型,但你也可以使用其他 Flux 模型。我还添加了一个 LoRA 以进一步增强逼真度。…

Midjourney危险了:来看 FLUX如何超越它
AI绘画领域发展迅猛,近来黑森林实验室推出的 FLUX 引发了创作者的高度关注。FLUX 乃是一套开源的文本到图像模型,据官方评估,其性能优于该领域众多领先模型,包括开源模型与闭源模型,其中广为人知的 Midjourney 也在其列。 作为曾对 Midjourney 功能展开广泛探索并予以记录之人,我对有关 FLUX 超越 Midjournbey 的说法饶有兴致。秉持着审慎的怀疑态度,我决定对 FLUX 加以测试,将其与 Midjourney 于几个关键方面进行直接比对。此文详尽阐述了我的研究成果,对这两款强大的AI绘画模型展开了全面比较。 欢迎观看本文的视频教程: 文本生成 首先,咱们来瞧瞧 FLUX 和 Midjourney 的文本生成功能。为凸显两者之差异,请看如下两组图片:左边为 FLUX Dev 生成的图片,右边则是 Midjourney V6.1 生成的图片。 1. 文本生成和质感 两个模型对于简单的单词拼写处理皆较为娴熟。然而,在纹理细节方面,FLUX 似乎更具优势。譬如,Midjourney 生成的单词“HEAL ”呈现出类似饼干的质感,这与预期的水果外观并不相符。相较而言,FLUX 所提供的纹理更为恰当,使文字看上去更为逼真,也更契合提示词的要求。 上面这组冰块的示例,质感上的差别就更为显著了。FLUX 生成的文本因其清晰度而引人注目——“Cubes”(冰块)一词周边轮廓清晰,极具视觉吸引力,而 Midjourney 的版本则缺乏这种精准度。 2. 宽高比灵活性 FLUX 的另一显著长处在于支持各类长宽比,此功能较…

Midjourney + ComfyUI = 完美产品摄影
Midjourney可以生成非常惊艳的产品摄影图片,但如果我们想要生成基于自己产品的场景图,就需要进行一些额外的处理。今天,我将分享如何通过Midjourney和我开发的ComfyUI工作流来生成更加贴合自己产品的场景图。 Midjourney+我的ComfyUI工作流 我们都知道Midjourney可以生成非常惊艳的产品摄影图片。比如,这张美容产品的图片就是Midjourney生成的。它的光线效果确实很棒。 但我们要的是基于自己产品的场景图,比如说,这是我们的产品,一款眼霜。 我们可以通过Midjouney的图像参考功能,尽可能地让图片里的产品接近我们的产品。 虽然完全再现我们产品的细节并不可能,但我还是通过Midjourney和我开发的ComfyUI工作流做出了这张图。 Midjourney为我生成了产品的场景,我的ComfyUI工作流帮我把产品完美地融入了场景。 它改变了产品的光影,但保留了所有产品上的细节,包括文字。 感谢大家的建议,我的工作流已经更新到第二版。如果大家想深入了解这个工作流的运行逻辑,可以看看我第一版工作流的视频介绍: https://www.bilibili.com/video/BV1Pf421B7Vb 🔗 下载此工作流(国外): https://openart.ai/workflows/myaiforce/GL2vEhda2lKbX0snXCNG 🔗 下载此工作流(国内): https://www.liblib.art/modelinfo/fdc1738d174f4cae8c203818b5b78565 本文将首先和大家分享如何用Midjourney生成产品的背景。然后,简单介绍下第二版工作流的所有更新。如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 如何用Midjourney生成产品背景 在创建产品摄影图时,一个好的背景能够有效地突出产品并提升其质感。我们可以通过Midjourney或Stable Diffusion生成符合自己需求的产品背景图。以下是具体步骤和提示词公式的介绍。 1. 提示词公式:创建多样化的展台 要生成多种类型的展台背景,可以使用以下提示词公式。你只需替换公式中的“材料”、“质地/图案”、“形状/结构”和其他括号里的内容,就能生成适合不同产品的展台。 2. 示例1:现代简约的科技产品背景 3. 示例2:乡村风格的有机护肤品背景 4. 不使用展台的背景生成 如果你不希望在背景中包含展台,也可以直接使用以下提示词公式生成背景: 或者,你也可以将你的产品图上传到Midjourney作为参考,直接生成一个与产品相似的图片。然后手动抹掉产品部分,留下背景,这样的图像也可以作为出色的产品背景。 例如,我在文中提到的背景图原本包含产品。 但我手动抹去了产品,只保留了背景,效果非常不错。 5. 延伸阅读 如果你想了解更多关于如何使用Midjourney生成产品摄影图片的技巧,可以参考我之前写的一篇详细文章。 ComfyUI工作流V2版本更新内容 在V2版本的ComfyUI工作流中,我根据大家的反馈和建议,进行了多项改进和功能更新。以下是具体的更新内容: 1. 精准抠图:从“Image Remove Bg”到“BiRefNet” 第一个重要更新是将原先用于抠图的“Image Remove Bg”节点替换为精度更高的“BiRefNet”节点。这一更新大幅提升了抠图的精确度,使得产品图与背景的融合更加自然。…

ComfyUI产品摄影工作流(自定义产品位置并保留细节)
探索 ComfyUI 工作流程,制作出令人惊叹的产品摄影图片。学习如何通过完美的打光和细节来混合、重新照明和增强图像。

用SD模仿Midjourney的艺术效果
今天,我们将探索如何使用几种不同的LoRA,让Stable Diffusion生成的图像更接近Midjourney的艺术效果。这些LoRA可以组合使用,从而形成不同的效果组合。我们会在ComfyUI里搭建工作流来组合使用这些LoRA。当然,你也可以在WebUI或者Fooocus里使用这些LoRA。 我将会展示工作流生成的图片。通过这些图片,你可以很直观地了解不同的LoRA和它们的组合带来的不同效果。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 要用到的LoRA介绍 这些LoRA都可以在C站上下载。 使用的Checkpoint 在本教程中,我使用的Checkpoint是Albedobase XL。相比于其他模型,它的艺术效果更好,也更接近Midjourney。当然,你也可以用其他Checkpoint。如何知道哪些Checkpoint和LoRA搭配效果好呢?你可以在C站的LoRA页面查看其他用户生成的效果图。 点击你喜欢的图,查看生成这张图片用到的Checkpoint,例如RealVisXL。 在ComfyUI中搭建工作流 最简单的工作流 1️⃣ 下载并安装效率节点。 2️⃣ 最简单的工作流只需要4个节点。 3️⃣ 设置同时使用的LoRA数量。 复杂一点的工作流 在某些情况下,效率节点并不好用,可以使用更复杂的工作流: 1️⃣ 在ComfyUI默认工作流的基础上,添加两个节点。 2️⃣ 如果找不到这些节点,可以在ComfyUI管理器里安装“Comfyroll Studio”这个节点。 3️⃣ 这个节点最多允许同时使用3个LoRA。如果需要更多,可以再连接一个相同的节点。 LoRA的对比与组合 对比提升艺术效果的LoRA 我们将对比”Midjourney mimic”、”xl_more_art”和”Midjourney V6 Style”生成的效果。我这里用的LoRA权重都设为了1。 💠人像对比: 💠 动植物和风景对比: 不同权重组合的效果 通过不同权重组合使用LoRA,可以得到不同的效果。这里面的组合方案有很多。我倾向于把”xl_more_art”的权重设置得最高,把”Midjourney mimic”的权重设置得最低。因为”xl_more_art”对风格的影响最小一些,但它最稳定,所以要设置高权重。”Midjourney mimic”对风格的影响最大,但很容易出现一些细节性的错误,所以要设置低权重。 💠我的推荐组合: 💠效果对比: 💠再来看一张图片: 引入”Detail Tweaker…

ComfyUI人脸修图工作流,化妆磨皮吊打PS
大家好,今天我将介绍一个最新搭建的工作流,旨在使用AI对人像进行修图。通过这个工作流,你可以看到修图前后的显著对比:不仅给照片中的女性画了眼线和眼影,涂了口红,还使她的皮肤变得更加光滑,质感也非常真实。同时,她的面貌特征没有被改变,这才是真正意义上的AI修图。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 工作流简介 在导入工作流之前,我们需要下载一个关键的Checkpoint。这是整个工作流的核心,能够帮助我们用AI给人物进行“化妆”。当然,我们也可以使用Photoshop来实现类似的效果,但如果想要达到比较真实的质感,需要非常高的技术以及大量的时间。 下载Checkpoint 我们需要从HuggingFace上下载Checkpoint,下载地址:https://huggingface.co/stabilityai/cosxl/tree/main。 1️⃣ 注册并登录HuggingFace确保你已经在HuggingFace上注册并登录。 2️⃣ 进入下载页面我们要下载的Checkpoint是由开发Stable Diffusion的公司StabilityAI开发的。你需要提供一些个人信息并提交,才能进入到下载页面。 3️⃣ 下载Checkpoint在下载页面中,只需下载下面的Checkpoint即可。 导入工作流 导入工作流后,可能会发现缺失一些节点。可以在ComfyUI管理器里安装这些节点。 也可以手动安装。 搭建基础工作流 1. 添加”Check加载器” 2. 加载图像并制作遮罩 3. 添加提示词和CFG引导 4. InstructPixToPixConditioning 5. 添加 “图像遮罩复合” 节点 发现金色眼线扩散到了其他地方,遮罩未能有效限制。因cosxl_editCheckpoint的特殊性,我们不能用它来搭建局部重绘的工作流,但可以通过遮罩限定眼线区域。接下来,我们将添加一个节点来进一步控制修改区域,并在指定区域内涂抹眼影。 这个节点的作用类似于在Photoshop中将原图像放在上层,将目标图像放在下层,然后通过蒙版将对图像的修改限定在指定区域。 然后再添加 “图像对比” 节点,它的作用是对比修改前后的图像。将image_a端口连接到修改后的图像。将image_b端口连接到原始图像。 完成这些步骤后,我们再生成一张图,确保眼线被涂在指定区域。 6. 添加眼影 接下来我们再给她涂个眼影吧。把这张图复制一下。然后回到最开始的”加载图像”的节点,把图像粘贴过来。然后再做一个遮罩。遮罩模糊度我们设高一些。然后改一下提示词。把”双CFG引导”这里的CFG改小一些。然后再跑一张图。 进阶工作流:皮肤遮罩 在前面的步骤中,我们已经完成了眼线和眼影的添加。接下来,我们将详细讲解如何进行皮肤磨皮,使皮肤更光滑并且保持质感。这个过程涉及到一些高级节点配置,以确保面部皮肤的处理效果最佳。 1. 磨皮的重要性 磨皮是人像修图的关键步骤之一,但不能简单地重复之前的步骤。直接通过提示词如”光滑的皮肤”可能会导致不理想的结果。此外,手动为面部皮肤制作遮罩比较费时费力,因此我们将使用ComfyUI中专门为面部做遮罩的节点——FaceParse。 2. 添加…

AI换脸技术大比拼:PuLID vs InstantID vs FaceID
今天,我们将通过一个ComfyUI工作流来对比三种AI换脸技术,分别是PuLID、InstantID和IP-Adapter的FaceID-V2版本。这些技术的核心原理相似,都是基于一个名为InsightFace的人脸分析技术,该技术需要授权才能商用。InsightFace是一个深度人脸分析库,用于人脸识别、人脸检测和人脸对齐。 IP-Adapter FaceID是这三种技术中最早推出的。接下来推出的是InstantID。PuLID是最近推出的换脸技术。 这三种方案都需要你提供一张人脸参考图。因此,换脸的效果在很大程度上取决于你提供的那张参考图的质量和适配度。 接下来我们来通过一个ComfyUI工作流同时对比这三种换脸方式的效果。工作流的下载地址是:https://pan.baidu.com/s/19K60iNk1LGlNZJBCu7HuJA?pwd=lzo4 。 我会先演示下如何使用这个工作流,然后用这个工作流生成4组图片,并进行打分,来评估它们的效果。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 工作流配置和说明 当你下载好相关节点并导入ComfyUI以后,可能会发现缺少一些节点。这时候只需要在ComfyUI管理器中安装这些节点并重启ComfyUI即可。 建议在安装节点之前先升级ComfyUI,否则即使安装了节点,也可能仍然提示缺失节点。除了节点之外,还需要安装一些必要的模型。 模型的下载地址和存放路径,可以在节点的GitHub主页上找到详细介绍。 以最近的PuLID为例,安装说明中提到需要下载PuLID的预训练模型,然后将其放到ComfyUI/models/pulid/文件夹中。另外,第一次运行PuLID时,会自动下载一些模型。 导入工作流以后,让我们从下往上看看它的结构。 1️⃣ 共享节点:最下面是PuLID、InstantID和FaceID共用的节点。它们使用的Checkpoint、提示词、潜空间图片的尺寸和固定的种子值是相同的,这样可以更有利于同时对比它们的效果。 2️⃣ 模型节点组:再往上,有三个节点组。从左到右依次是PuLID、InstantID和IP-Adapter-FaceID。工作流的作者将它们安排得井井有条,非常直观。 3️⃣ 参考图像节点:再往上,右击名称为”Face”的节点,通过右键菜单最上面的选项,可以发现它实际是一个”加载图像”的节点。这个节点加载的是一张有人脸的照片,用来给PuLID、InstantID和FaceID作为参考。 运行工作流并对比效果 了解了工作流的运行逻辑后,我们可以开始运行工作流,对比这三种换脸方式的效果。 运行步骤 1️⃣ 确保所有必要的节点和模型都已安装和配置正确。 2️⃣ 导入工作流,并检查各节点的连接和配置。 3️⃣ 加载参考图像,并确认图像路径和格式正确。 4️⃣ 运行工作流,生成三种换脸技术的效果图。 5️⃣ 对比生成的效果图,分析PuLID、InstantID和IP-Adapter FaceID的差异和优劣。 对比效果 用这个工作流生成4组图片,并进行打分,来评估它们的效果。我设定了4个评分维度,为了方便起见,每个维度的分值都设定为1-3分: 第一组图片: PuLID InstantID FaceID 提示词契合度 2 3 1…

PS创成式填充平替:体验Stable Diffusion扩图专用模型的强大
大家好,今天我将向大家介绍如何使用免费的Stable Diffusion实现类似于Photoshop的创成式填充功能。 Photoshop的创成式填充功能非常强大。比如,在一张风景照的左右两侧,利用AI自动填充新的内容。 只需要选中要填充的区域,哪怕不写提示词,Photoshop也能够很好地进行扩图。 然而,这个功能是收费的。 今天,我们将探讨如何使用免费的Stable Diffusion实现类似的效果。 这张16:9的图片是我用Midjourney生成的。 通过WebUI,我们可以分别向上和向下扩展图像内容。扩展的方向和范围完全由我们决定,非常灵活,而且填充的内容和原图非常契合。 依赖大模型的实现 用Stable Diffusion实现这个效果非常依赖Checkpoint。在这部分,我们将通过一个消除画面中人物的例子,来说明Checkpoint在Stable Diffusion中的重要性。 步骤说明 1️⃣ 导入图片:将我们之前的图片导入到WebUI的局部重绘功能中。 2️⃣ 涂抹蒙版:将图片中的女子涂抹成一个蒙版。 3️⃣ 调整蒙版模糊度:为了避免重绘后的边缘产生接缝,将蒙版的模糊度调高一些。 4️⃣ 勾选Soft inpainting:勾选“Soft inpainting”选项,以进一步降低接缝的概率。 5️⃣ 保持尺寸一致:确保重绘后的图像尺寸与原图一致。 6️⃣ 调整降噪强度:将降噪强度拉到最大。 7️⃣ 选择模型:选择一个SDXL的模型,这里我们选择的是“juggernautXL”。等待模型加载完成。 8️⃣ 添加提示词:写一些提示词,以更精准地控制重绘区域的内容。 9️⃣ 生成图片:运行生成操作。 模型效果对比 初次生成的图片效果可能不理想,我们可以尝试更换Checkpoint。 1️⃣更换Checkpoint:选择另一个Checkpoint,比如“juggerxl Inpaint”。这是一个专门用于局部重绘的模型。下载地址是:https://pan.baidu.com/s/1Vtb8uuuWDqyDkgR7ToGcRA?pwd=e7hh 。 2️⃣保持其他参数不变:为了对比不同模型的效果,保持其他参数不变,再次生成一张图片。 观察效果 第二次生成的图片效果明显比第一次好很多。通过这个对比,我们可以看到选择适合的Checkpoint对于获得理想的重绘效果是多么重要。有了适合的Checkpoint后,我们可以正式开始用它进行扩图。 简单创成式填充案例 我们将换一张新图,内容是一位美女坐在汽车引擎盖上,并将其扩展成正方形的图像。 设置初始参数…

ComfyUI一键更换服装:IP-Adapter V2 + FaceDetailer(DeepFashion)
在这篇文章中,我们将探索如何使用新版的IP-Adapter和ComfyUI软件为人物进行换装。 整个过程非常简单,仅需要两张图片:一张服装图片和一张人物图片。 通过一系列节点的操作,ComfyUI就会把这个服装换到人物身上,并利用FaceDetailer节点来修复任何细微的服装问题。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 准备工作流 首先,请确保你已经下载并导入了工作流到你的ComfyUI。下载链接是:https://pan.baidu.com/s/1g684r19bLGUpb0zI4FOwTw?pwd=pbgb 如果在导入过程中遇到节点显示为红色色块,并且有弹窗提示缺失特定节点。 请按照以下步骤解决: 1️⃣ 更新ComfyUI: 在开始之前,请确保你的ComfyUI是最新版本,以免下载到过时的IP-Adapter版本。 2️⃣ 安装缺失节点: 打开ComfyUI管理器,选择“安装缺失节点”,并安装以下三个节点: 3️⃣ 重启ComfyUI: 安装完节点后,点击界面下方的重启按钮。如果重启后一些节点仍显示为红色,不必担心,只需简单刷新一下网页即可解决。 导入和准备图像 为了充分利用提供的工作流并实现人物换装,让我们一步步在ComfyUI中构建所需的操作。我将详细指导你如何加载图像、创建服装遮罩,并最终生成预览图像。 步骤一:加载人物图像 步骤二:创建服装遮罩 步骤三:遮罩细化和预览 完成上述步骤后,你将看到遮罩的图像,它将展示出裙子的具体形状。这个遮罩将用于下一阶段的换装过程,确保新的服装可以精确覆盖在原图的对应部分。 配置IP-Adapter 接下来,我们将详细介绍如何搭建IP-Adapter模块,使用另一张裙子的图片进行人物换装。这部分包含安装必要的模型、导入和连接各种节点,以确保换装过程的顺利进行。 安装必要的模型 导入服装图片 类似于加载人物图片的步骤,搜索并导入Load Image节点,上传你选择的新服装图片。 设置IP-Adapter 配置关注层遮罩和CLIP模型 设置K采样器与CLIP文本编码器 配置VAE编码器和解码器 完善VAE解码过程 应用提示词以精细化控制 评估和调整权重类型 1️⃣ 初次评估: 2️⃣ 调整权重类型: 引入FaceDetailer修复服装细节 为了进一步提升换装效果,特别是增强服装的立体感和细节表现,我们将引入”FaceDetailer”节点和服装区域检测功能。以下步骤将指导您如何安装必要模型、配置相关节点,并最终评估优化效果。 安装和配置DeepFashion模型 打开ComfyUI管理器,搜索并安装”DeepFashion”模型,该模型专为服装相关的图像处理优化。 配置FaceDetailer节点…

升级版ComfyUI InstantID 换脸:FaceDetailer + InstantID + IP-Adapter
在使用ComfyUI的InstantID进行人脸替换时,一个常见问题是该工具倾向于保留原始参考图的构图,即使用户的提示词与之不符。 例如,即使用户提供的是大头照并请求生成全身照,结果仍是大头照,没有显示出用户所期望的构图。 同样,从半身照生成全身照的工作流也会遇到同样的问题——生成的图像仍然是半身照。 为了克服这一挑战,我设计了一种新的工作流程,该流程可以将参考图中的人脸替换到任意一张照片上,而不受原始构图的限制。 这种方法不仅提高了创作的灵活性,还确保了生成的图像能更好地符合用户的实际需求。接下来的内容,我们将详细介绍如何实现这一工作流程。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 基础工作流的搭建 首先,使用SDXL生成一张肖像照片。这张照片将作为换脸操作的基底图像。用于换脸的基底图像,你也可以用Midjourney生成,或者是你自己拍摄的照片。这样就非常灵活了。 生成肖像照片 1️⃣ 准备工作:确保在ComfyUI管理器中安装了Efficiency Nodes效率节点。 2️⃣ 设置SDXL节点: 换脸操作 3️⃣ 加载所需节点: 在操作过程中,如果遇到任何疑问或需要进一步的详细说明,可以参考我之前发布的文章,里面使用了LoRA和FaceDetailer进行类似的换脸操作。 添加并配置InstantID以进行换脸操作 步骤 1: 安装和配置InstantID 1️⃣ 安装InstantID:在添加InstantID之前,您需要确保已经在ComfyUI管理器里安装了由cubiq开发的InstantID节点。这个节点是实现高质量面部替换的核心。 2️⃣ 配置节点: 步骤 2: 准备参考图像 3️⃣ 上传参考图: 步骤 3: 调整参数并连接 4️⃣ 连接节点: 5️⃣ 连接输出端口: 开始换脸操作 6️⃣ 执行换脸: 我们来对比下脸部参考图和换脸以后的图像。感觉有些不太像。 很多情况下,再加入IP-Adapter可以提高一些换脸的相似度。我们来接着添加IP-Adapter。 添加IP-Adapter以提高相似度 步骤…