comfyui realistic skin

保留面部特征,创造真实皮肤质感 (ComfyUI工作流)

如果你一直在尝试使用生成AI来创作肖像,可能会遇到一个常见问题:皮肤通常看起来过于光滑,几乎像塑料一样。 这种缺乏细节的现象让人很容易看出这是由AI生成的,从而降低了其真实感。 在这篇文章中,我们将探讨如何通过我开发的ComfyUI工作流来解决这个问题。 比较AI生成的皮肤纹理 为了更好地理解这个问题,让我们仔细看看几个AI生成的肖像示例。在第一个示例中,如果我们放大一下人物的脸部,可以看到她的皮肤缺乏细致的细节。这使得图像呈现出一种人造的、塑料般的外观,这正是AI生成的明显特征。 这是另一个示例,使用Flux模型的fp8版本创建。虽然这个版本确实包含了一些皮肤细节,但它们仍然感觉不自然,无法完全捕捉到真实人类皮肤的复杂性。 即使是像PixelWave这样高级的模型,皮肤纹理仍然可能看起来略显不足,存在改进的空间。这些示例突显了当前AI模型的一个关键局限性:它们往往难以生成真正逼真的皮肤纹理。尽管像Flux和PixelWave这样的模型令人印象深刻,但它们并不足以解决这个问题。这就是ComfyUI工作流的用武之地。 介绍ComfyUI工作流 我们将使用的ComfyUI工作流旨在解决现有AI模型的不足。该工作流基于SD1.5模型,不仅在GPU资源上高效,而且生成的皮肤纹理感觉更加自然和生动。 让我们看一些前后对比的例子,看看这个工作流可以带来怎样的变化。 在第一个示例中,我们从一张典型的过于光滑、塑料般的皮肤图像开始。 在经过工作流处理后,皮肤纹理变得更加粗糙和自然。为了进一步增强真实感,我使用了LoRA添加了雀斑,为图像增添了额外的真实感。 在另一个示例中,放大人物的眼睛可以看到睫毛的细致细节。 鼻子上的雀斑也增强了图像的真实感。 最棒的是这个工作流允许你根据自己的喜好自定义雀斑的数量。 现在你已经看到了这个工作流能够实现的效果,让我们逐步讲解如何使用它。 下载这个工作流:https://www.liblib.art/modelinfo/160ee2f0dd754e1eb3ad90f3e2d47a5a 视频教程和模型安装:https://www.bilibili.com/video/BV1rZPCeoEVZ/ 发电解锁其他进阶工作流:https://afdian.com/a/myaiforce 节点组1:设置工作流 要开始使用ComfyUI工作流,我们将首先关注第一个节点组。这一步主要是为生成真实的皮肤纹理奠定基础。以下是开始的步骤: 随着模型和LoRA的加载,第一个节点组现在已完全配置。这为接下来的步骤做好了准备,在这些步骤中,我们将微调提示词并进一步完善图像。接下来,我们进入第二个节点组! 节点组2:配置提示词 第二个节点组主要是为采样过程设置提示词。这一步确保生成的图像与您的创意愿景和原始肖像紧密对齐。以下是有效配置提示词的方法: 这种配置确保AI准确理解你的目标。让我们继续进入下一个节点组! 节点组4:重绘肖像以实现真实细节 第四个节点组是核心——重绘上传的肖像以增强其真实细节。这一步聚焦于细化皮肤纹理,并确保面部特征保持完整。以下是如何使用这个节点组的步骤: 节点组3:皮肤平滑处理 第三个节点组专注于平滑皮肤并消除在早期处理步骤中可能出现的任何虚假的细节。这一步确保为进一步的优化提供一个。以下是其工作原理: 节点组5:优化面部 第五个节点组是我们优化面部的地方,以确保肖像尽可能看起来真实。这一步专注于保留眼睛和嘴巴等关键区域的完整性,同时增强整体细节。 结语 我鼓励你下载这个工作流,尝试各种参数,看看它如何提升你的AI人像。 我希望这个工作流能为你的创意过程带来很大的价值。希望你能享受到使用这个工作流的乐趣,并创造出令人惊艳的作品!

ComfyUI背景融合工作流,人像产品都适用,SDXL 5步出图

ComfyUI背景融合工作流,人像产品都适用,SDXL 5步出图

在上一篇文章中,我发布了一个 ComfyUI 的换背景的工作流,能够将产品或人像完美地融入新的背景。它的背景是由AI生成的,不过有些情况下我们已经有了一个现成的背景,这时候可以用我今天给大家介绍的这个工作流。 实际应用 假设你有一张人像,你希望将主体置于一个全新的背景中。 第一步是移除现有的背景。这种工作流足够灵活,可以移除简单或复杂的背景。 一旦背景被移除,主体会被重新定位到新场景中。 真正的“魔法”发生在我们使用Lightning版本的SDXL模型的时候。该模型能够重新调整主体的光影效果,确保光线方向、高光和阴影与新环境相匹配。 例如,如果原始光线来自右侧,但新场景的光线来自左侧,SDXL模型会相应地调整主体的光影,从而使主体看起来更自然,与新背景的阴影和高光无缝融合。 不仅限于人物,这种工作流在处理产品时同样出色。 不论是将一个人物放置在沙滩上,还是将一个产品置于摄影棚环境中,其应用场景几乎是无穷的。通过这一流程,你可以获得令人惊艳的效果,提升项目的视觉吸引力。 ⚡️发电下载工作流:https://afdian.com/p/a31569c0d71d11efac785254001e7c00 节点组1:加载模型 现在,让我们一步步学习如何使用这一工作流。 在第一个节点组中,我们的主要任务是加载必要的模型并为图像处理做好准备。这一步非常重要,因为它为整个工作流奠定了基础。以下是具体步骤: 节点组2:移除背景 在第二个节点组中,我们的目标是有效移除主体图像的背景。这一步对于隔离主体并为其融入新背景做好准备至关重要。以下是具体步骤: 节点组3:主体重新定位、提示词生成和Canny边缘图像创建 在这个节点组中,我们的重点是将主体定位到新背景中,并优化图像的整体外观。以下是具体步骤: 节点组4:重绘和阴影调整 在这个节点组中,我们专注于通过重绘来优化图像,增强光影效果,确保主体能够自然地融入背景。以下是具体步骤: 通过以上步骤,主体可以自然地融入新背景,光影效果也能得到极大的优化。 节点组5:创建和修改阴影遮罩 在这个最终的节点组中,我们重点是生成和优化阴影遮罩,以提升整体图像质量。以下是具体步骤的详细说明: 节点组6:恢复细节与调整阴影 在这一部分,我们旨在恢复重绘过程中丢失的细节,并解决阴影融合问题。以下是步骤的详细指南: 故障排除与优化技巧 在处理复杂工作流时,遇到问题是很正常的。以下是一些帮助你排查问题并优化结果的提示: 通过这些步骤和技巧,你可以显著改善图像的阴影质量和整体表现。 总结 这一工作流赋予你增强图像的能力,通过高效管理阴影和背景,实现真实且视觉吸引力更强的效果。通过遵循上述步骤和提示,你可以获得令人满意的成果。记住,掌握这一工作流的关键在于不断尝试。大胆探索新想法,挑战创造力的边界。每一次尝试都能让你更接近发现创新技术和效果的目标。

万能换背景工作流 V4 更新,产品人像通用,改变光效保留细节

万能换背景工作流 V4 更新,产品人像通用,改变光效保留细节

在本文中,我将介绍我对 ComfyUI 换背景工作流的最新改进。 过去几个月,我发布了多个更新,比如用了 IC-Light 和基于 Flux 的 ControlNet 提升效果。但最近,我开发了一个更快速、更强大的版本。 概述与新功能 在之前的 ComfyUI 版本中,IC-Light 和基于 Flux 的 ControlNet 可以帮助主体融入新背景。虽然效果不错,但这些方法速度慢且资源消耗大。更新后的工作流提高了效率与真实感,实现了更快的处理速度和更自然的结果。 主要改进: 工作流示例 1:人像换背景 让我们从人像换背景开始。这是上传的图片。 首先,我使用这个工作流移除背景,并将主体重新定位到我们定义的新画布上。 轮胎和脚撑的某些部分被移除,因为它们将被沙地填充,新的背景设置在沙漠中。 接下来,通过使用 10 个采样步骤的 SDXL checkpoint的精简版本,我们可以改变主体光影并将其与新背景融合。在这个过程中,大部分主体细节得以保留,而这只需约 6GB 的 显存。 剩下的三个节点组使用基于 Flux 的checkpoint量化版本以及相同的 SDXL 进一步增强结果。 工作流示例 2:产品摄影换背景 现在,我们来看另一个例子:产品摄影,具体来说是替换 Dr Pepper 软饮料罐的背景。目标是将产品融入新的环境,同时保留细节。 这是用于换背景的上传图片。 我移除了背景和罐子的一些部分,因为希望这些部分在新背景中看起来被埋在冰中。 我将产品重新定位为平放状态,然后仅使用 SDXL 模型的精简版本生成新的背景。 最后,使用 Flux 模型获得了更佳的结果。 工作流下载与模型安装 模型: 基础版工作流…

用区域裁剪实现更好的Flux局部重绘【ComfyUI工作流】

用区域裁剪实现更好的Flux局部重绘【ComfyUI工作流】

Hello 大家好,我是Vito。在本文中,我们将深入探讨一个先进的 ComfyUI 局部重绘工作流,旨在实现更大的灵活性和高效性。在我之前的文章中,我介绍了使用不同版本的 Fill 模型进行扩图和局部重绘的结果对比,以及一个实用的扩图工作流。 今天,我们将重点关注局部重绘,特别是如何更换物品、修正扭曲的面部,甚至修复那些棘手的 AI 生成的手部。 对于喜欢通过视频内容深入了解 ComfyUI 的朋友们,欢迎去B站查看配合本文的精彩视频教程: https://www.bilibili.com/video/BV144kMY1ENk 让我们开始吧! 高度的通用性 我开发的这个工作流具有高度的通用性,并且与量化模型配合使用效果良好,使其在显存使用上更加高效。无论你是修改细节,比如更换帽子或修复手部,这种方法都能帮助你以最小的麻烦实现高质量的结果。 让我来详细展示如何使用这个设置。 1. 基础设置 步骤1:加载模型 首先,绕过其他节点组,激活第一个节点组,该组负责加载模型。我已经为你预先配置好了这一部分,所以我们可以直接运行工作流。 组中的第一个节点加载 Fill 模型,这个模型既适用于扩图任务,也适用于局部重绘任务。在本次演示中,我使用的是量化的 Q5 版本模型 [1]。它只占用 8 GB 的显存,管理起来更加轻松。如果你的显存不足,可以选择 Q4 版本,只需 6.8 GB。 经过我在之前的文章中验证,Q5 和黑森林实验室的 20 GB 模型在结果上的差异实际上非常小。你可以放心地使用这些较小的版本进行第一轮局部重绘。为了速度和效率,我在右侧的节点中添加了一个 Turbo LoRA [2],以加快图像生成速度。 Fill 模型下方的节点 [3] 加载一个checkpoint。它决定了图像的最终质量。如果需要,你可以加载一个量化的checkpoint,如 FluxRealistic,它只需要 6.8 GB 的显存,但仍然能提供良好的质量。 这里还有另一个 Turbo LoRA 节点 [4],但我将其强度设置为零,因为在这个阶段它不是很有用。你可以在稍后的任务中,比如修复面部或手部时再回来使用它。…

Flux Redux 高级应用:换脸换背景换姿势,效果很自然

Flux Redux 高级应用:换脸换背景换姿势,效果很自然

如果你曾尝试为一张人像照片更换背景,你一定了解让主体与新场景的光线和氛围完美契合有多么困难。这时候,黑森林实验室推出的 Flux Redux 模型便能派上用场。它擅长在主体与背景之间保持光线和谐,确保最终效果自然流畅。 Redux 在某些方面与 IP-Adapter 类似,但同时又具备独特的能力。下面我们将探讨如何利用 Redux 的两种工作流——基础版和高级版——来实现无缝的背景替换。 如果你喜欢通过视频深入了解 ComfyUI,不妨在B站观看本文的配套视频教程: https://www.bilibili.com/video/BV1B5qSYTERh 基础工作流与高级工作流 这两种工作流的目标都是通过提示词(prompt)为图像更换背景。基础工作流使用整张原图作为参照来保持光照一致性,而高级工作流则仅聚焦主体,让背景独立生成,从而获得更自然的效果。 1. 参考方式的差异 2. 人脸的一致性与细节 3. 构图的灵活性 4. 自然融合效果 5. 高级工作流更多示例 下面是一些对照示例:左侧为原始参考图像,右侧为高级工作流的生成结果。请注意高级流程中的人脸是如何更好地契合新背景的环境光线的。 理解基础工作流 现在我们已对比了两种流程的结果,接下来从基础流程开始,了解其具体步骤。尽管基础流程有一定局限性,但它简单有效,非常适合用来入门背景替换任务。 此外,该工作流和模型可以免费获取,下载链接在此: 1.加载模型与设置提示词 初始节点组会加载必要的模型,并为新背景设定提示词,从而打下基础。 2. 去除背景 “Image Remove Bg” 节点会将原背景移除,仅保留主体。 3. 生成轮廓图 Canny 模型(来自黑森林实验室)会为主体生成轮廓图。 4. 利用轮廓图生成图像 借助这个轮廓图,来自黑森林实验室的 Canny 模型会根据主体轮廓生成新的主体与背景图像。 在此任务中,使用量化后的模型版本已足够。我使用的是 Q8 版本,它更轻量且高效。如果资源有限,也可使用 Q4 版本。 5. 替换背景 此时主体会被暂时移除,仅保留新生成的背景。 随后将原有主体粘贴回新背景中,形成中间合成图像。…

Flux官方最新王炸模型,7合1工作流 (ControlNet+局部重绘+扩图+风格迁移)

Flux官方最新王炸模型,7合1工作流 (ControlNet+局部重绘+扩图+风格迁移)

黑森林实验室(Black Forest Lab),作为革命性 Flux 模型的创造者,最近推出了一套强大的新工具,旨在重新定义我们在 ComfyUI 中处理图像生成和编辑的方式。这些尖端模型——Fill, Canny, Depth 和 Redux——带来了诸如局部重绘(inpainting)和扩图(outpainting)、精确边缘检测 (Canny)、深度映射 (Depth) (Depth)以及创意风格迁移等高级功能。 然而,真正让 Flux 工具脱颖而出的是它的性能。在一对一的基准测试中,Flux 模型始终优于类似的专有解决方案,如 Midjourney ReTexture 和 Ideogram V2。例如,Flux.1 Fill [pro] 模型目前被认为是最先进的局部重绘模型,在质量和效率上都无出其右。同时,Flux.1 Depth [pro] 模型在深度感知任务的多样性和可靠性上超越了 Midjourney ReTexture。 本文将深入解析这些模型的独特功能,并为您提供一个高效的工作流,帮助您快速上手。 功能与工具概述 全新 Flux 模型套件——Fill, Canny, Depth 和 Redux 提供了顶级的性能和多功能性。以下是每个模型的功能以及它们如何超越竞争对手的简要介绍。 1. Fill 模型:局部重绘与扩图的强大引擎 Fill 模型为局部重绘与扩图设立了新的标杆,呈现出卓越的细节和无缝的过渡效果。 2. 结构化控制:Canny 和 Depth 结构化控制(Structural Conditioning)在图像变换工作流中是一项强大的功能,它通过 Canny 边缘检测或 深度映射…

Flux微调模型大比拼:PixelWave vs Shuttle 3 Diffusion vs StoiqoNewreality vs FluxRealistic

Flux微调模型大比拼:PixelWave vs Shuttle 3 Diffusion vs StoiqoNewreality vs FluxRealistic

Flux模型因其高质量的结果和多样的应用场景而在AI社区引发了极大兴趣。然而,众多选择使人难以抉择——从 黑森林实验室 的官方Flux模型(Pro、Dev、Schnell)到众多微调版本,究竟该从哪开始?哪个模型才是最佳选择? 本文旨在阐明官方 Flux模型 与 基于Flux的微调模型 之间的区别,同时全面比较4款流行的基于Flux的微调模型:Shuttle 3 Diffusion、fluxRealistic、PixelWave 和 StoiqoNewreality。 本文并非简单罗列其功能特点,而是基于4个关键性能维度进行深入测试: 通过深入对比,我们可以更好地了解每个模型的优劣势,从而为自己选择最适合的工具。 视频教程: 首先,让我们从最基础的部分开始,了解由 黑森林实验室 开发的原始 Flux 模型,以及它们如何演变为这些微调模型。 什么是Flux模型? Flux模型由 黑森林实验室 开发,是一系列AI绘画模型,可以生成高质量的图片。它们分为3个官方版本:Pro、Dev 和 Schnell,每种版本在质量、灵活性和授权上各有不同。 Flux的三个版本 Flux模型的演变 当 Dev 和 Schnell 版本 首次发布时,它们存在一些显著的缺点: 这些限制使得许多用户难以使用这些原始Flux模型。不过,后续的改进解决了这些问题: 这些改进为炼丹师们利用Schnell或Dev版本作为基础微调和发布自己的Flux模型铺平了道路。 基于Flux的微调模型 基于Flux的微调模型是使用Schnell或Dev模型为基础,由炼丹师微调而成。这些模型增加了特殊功能或改进了图像质量。本文将分析以下4个微调模型: 这些checkpoint经过优化,与最初的 Flux 模型截然不同,但仍植根于相同的架构。 有了前面的基础,接下来让我们看看测试方法以及如何在关键性能维度上对它们进行比较。 测试方法 为了评估4个基于Flux的微调模型(Shuttle 3 Diffusion、fluxRealistic、PixelWave 和 stoiqoNewreality),我们采用了一套结构化测试方法。在可控条件下对每个模型进行测试,尽量确保公平对比。不过,由于fluxRealistic模型的特殊需求,对其进行了特殊调整。 测试环境设置 测试维度 每个模型在以下4个性能维度上进行评估: 图像对比 在每个测试维度中,我们生成了图像并将其并排展示以便详细比较。通过此过程,突出了每个checkpoint的独特优缺点,便于轻松识别哪些模型在特定领域表现更优。 皮肤纹理和面部细节 第一个测试维度关注的是每个checkpoint渲染皮肤纹理和面部细节的能力,例如瞳孔、睫毛的清晰度以及整体面部真实感。这些方面对于创建逼真的图像,尤其是人像,至关重要。让我们来看看四个基于Flux的checkpoint在这一方面的表现。…

基于RF Inversion和Flux的人像美化工作流

基于RF Inversion和Flux的人像美化工作流

在本文中,我将带您了解最新的人像美化工作流程,通过简单几步即可提升图像。这个流程专注于自然的增强效果,改善肌肤、发质以及布料的质感,同时避免照片看起来过度修饰。不论是低光环境的照片、模糊图像,还是年长对象的肖像,这一工作流都能提供帮助。 工作流效果 在介绍步骤之前,让我们先看看此工作流能够带来的改变: 肌肤增强效果 肌肤看起来更加平滑细致,同时保持自然效果。这不仅仅是基础的磨皮——睫毛、眉毛和头发的细节也得到了微妙提升,显得更平滑和清晰。连衣物的布料纹理也变得更干净和锐利。 拯救废片 该工作流可以改善一些具有挑战性的图像,例如因烟雾导致面部模糊的照片,可以澄清整体图像,而不会扭曲面部特征。 降噪效果 该流程能有效处理由于光照条件不足而产生的噪点,使它们显得更加清晰和精致。 减龄效果 如果您在处理年长人物的肖像,这个流程可以使对象的外观显得年轻。 视频教程: 模型和工作流下载 工作流下载:https://www.liblib.art/modelinfo/d345b11851a04f12bf5305fdaa85d72f 💎发电专属内容(视频对应的进阶指南、更多示例、资源和问答支持): https://www.patreon.com/posts/portrait-with-rf-115906538 模型安装: 主要节点: 如果因为连不上国外网络而无法下载这些节点,可以使用云平台租赁显卡。在云平台上下载节点以后,在线使用或者下载到本地。 开始使用该工作流程 在深入学习之前,请先观看另一个视频,了解什么是RF Inversion以及它的更多应用场景:https://www.bilibili.com/video/BV1QPSiYSEpe/ 要尝试这个工作流程,您需要以下资源: 步骤指南 1. 上传您的照片 首先,将您的图像上传到该工作流。 2. 调整图像尺寸以适应SDXL 3. 使用“Sharp&Soft”节点调整锐度 4. 自动调整亮度、对比度和亮度 5. 自动生成提示词 6. 使用RF Inversion提升细节 7. 融合原始细节 8. 使用Sharp&Soft节点进一步增强纹理 9. 图像放大 10. 使用Image Lucy Sharpen节点进行微调 11. 使用SD1.5进行重绘

EcomID vs. Flux PuLID vs. InstantID -> 100%相似度人脸迁移工作流 V2

EcomID vs. Flux PuLID vs. InstantID -> 100%相似度人脸迁移工作流 V2

大家好,今天我们将对比三种AI换脸技术:基于Flux的PuLID、基于SDXL的InstantID以及最近推出的基于SDXL的EcomID。 你可以在这里免费下载这个工作流:https://www.liblib.art/modelinfo/67e6949d10f844c3bc35c15add791aa1 这三种技术各有优势,但都还无法达到100%的人脸相似度。为了追求更真实的效果,我之前开发了一个能够达到接近100%相似度的工作流,并进行了多次优化和增强,特别加入了高清修复的部分。接下来,我将详细讲解每个节点组的功能,帮助大家了解实现高相似度人脸的原理。 本视频对应的视频教程: https://www.bilibili.com/video/BV1E5DRYSEEq/ 工作流概览 首先,我们来看一下这次用来对比三种换脸技术的工作流。大家可以在本文末尾找到下载链接。 基础设置 工作流左边是一些基础设置区域,主要用于: 这些设置通过“Bus Node(节点总线)”和“Anything Everywhere(全局输入)”节点传递到右侧的各个换脸节点组,从而实现参数的集中管理。这种方式可以减少节点之间的连接线,使工作流更加简洁高效。 例如,EcomID和Flux PuLID都需要用到PuLID的Eva Clip模块,这里就通过“Anything Everywhere”节点统一传递,免去了重复连接的麻烦。同时,加载InstantID的节点也通过“Anything Everywhere”传递到右侧供EcomID和InstantID共享。 此外,“Seed Everywhere(全局种子)”节点确保了所有换脸节点组使用相同的种子,以保证对比结果的公平性。 三种换脸技术的节点组 在右侧,我们可以看到三个换脸节点组: 每个节点组生成的图片会被拼接在一起,与原始人脸参考图进行对比。我通过“Image Caption(图像字幕)”节点为每张生成图像添加了字幕,注意需要填写ttf格式字体的路径,否则会报错。 效果对比 在对比了多个示例后,我认为InstantID在大部分情况下的相似度最高。不过,具体效果因人而异,有时PuLID或EcomID的效果也很接近原图。 总体而言,换脸技术的优势在于: 但缺点是生成的人脸和真实人脸的相似度仍有不足。为此,我开发了一个号称能够实现100%相似度的工作流。经过用户反馈和优化调整,我们现在来深入讲解这个工作流的细节。 完美人脸匹配的逐步工作流解析 现在,我们来详细解读我开发的优化工作流的各个部分,以提高人脸相似度并解决常见问题,如脖颈处的接缝和其他不必要的瑕疵。 1. 初始设置与遮罩 2. 使用 SDXL 进行基础构图 3. 处理常见瑕疵并增强细节 使用 Flux 修复接缝和瑕疵 额外重绘以进行进一步修复 4. 最终处理与放大 手部细节优化 高清放大以获得高分辨率效果 5. 对比结果 最后,将生成的结果与原始参考图像进行对比。此工作流应该能够生成与原始人脸高度匹配的图像,具备清晰的细节和精致的纹理。如果需要进一步微调,可以考虑在 Photoshop(PS)中进行最后的修饰。 ⚡️发电获取此独家工作流: https://afdian.com/p/e9322ec49d5d11efa28c52540025c377 总结与建议 通过这个高相似度换脸工作流,我们可以实现非常逼真的AI人脸替换效果。脸部、手部以及其他细节都可以达到理想的精细度。如果细节还不够完美,还可以在PS中进行进一步微调和融合。欢迎大家提出反馈和建议,我会根据大家的需求持续优化迭代这个工作流。 感谢大家的关注,期待下次再见!

基于RF Inversion的风格和人脸迁移,8步逆采样出图,比Flux IP-Adapter强多了

基于RF Inversion的风格和人脸迁移,8步逆采样出图,比Flux IP-Adapter强多了

在这期视频中,Vito向大家介绍了利用RF Inversion技术开发的ComfyUI工作流,分享了其诸多强大功能及相关使用要点: ### 一、工作流亮点与获取方式 – **功能超酷**:该工作流结合阿里妈妈的Turbo LoRA,用Flux生成图片超快,仅8步即可出图,能实现多种令人惊叹的效果。 – **免费下载**:工作流链接放在视频下方描述里,可免费获取。 ### 二、多样的图片处理效果 – **风格迁移**: – 可实现“Semantic Style Transfer”,如将参考图的传统风格迁移到生成图上,人物姿势也能相似,且无需IP-Adatper和ControlNet控制,靠“RF反转”及提示词就能达成。 – 除写实风格外,还能迁移漫画、插画、绘画等风格,通过调整工作流参数可改变风格迁移方向,如用不同参数跑70张图,能呈现从写实到插画风格的过渡及构图迁移。 – **光影效果**:只需一张参考图,就能让处理后的光线更自然,还能保持人脸相似度,使皮肤更细腻、头发更顺,同时可实现光线、色彩、构图的同时迁移,甚至能实现摄影里的柔焦功能,还可将低质量图片转化为高质量图片。 ### 三、工作流相关设置与节点介绍 – **节点分组及功能**: – 工作流共分4个节点组。左边组用于基础设置,如上传参考图、设置尺寸、填写提示词等。 – 右上角节点组对参考图进行逆采样得到潜空间里的噪波图像。 – 下面的节点组是PuLID,可决定生成图片里人物的样子,不想生成人像可绕过。 – 最下面节点组对噪波图像重新采样生成最终图片。 – **关键节点操作**: – **上传参考图**:这步很关键,要选接近想要效果的图片,可对参考图进行水平翻转等操作,若参考图有不理想细节,可通过提示词或局部重绘改动。 – **逆采样节点组**:此节点组进行“RF反转”得到噪波图像,因用了“turbo alpha LoRA”加速,“Steps步数”一般填8步,追求极致效果可改更高步数,且要和最后节点组里的“基础调度器”设置一致。 – **Flux PuLID节点组**:不熟悉可看相关视频。 – **最下面节点组**:重点是“Flux反向ODE采样器”节点里的“eta”“结束步数”等参数,“eta”类似权重调整ODE采样控制力,“开始步数”一般设为0,“结束步数”范围设2 – 8,“eta trend”调整eta施加影响的方式,通过实际案例展示了不同参数值对图像的影响,还介绍了“linear increase”“constant”等“eta trend”选项生成的不同结果。 ### 四、提示词设置要点 – “逆采样提示词”引导“逆采样”过程,可先不填看效果;“采样提示词”引导最终生成图片过程,更为重要,通过调整“eta”值及添加提示词的示例,展示了提示词设置对生成图片效果的影响,若不确定“逆采样”提示词写法,可后期完善。…