超简单 Flux 换背景工作流:结合最新 ControlNet 深度 Depth 模型

超简单 Flux 换背景工作流:结合最新 ControlNet 深度 Depth 模型

在本篇文章中,我们将深入探讨如何使用 Flux ControlNet Depth 模型进行换背景。这种方法是我之前基于 Flux 模型换背景工作流的简化版。虽然旧的工作流程功能强大,但它非常复杂且运行缓慢。今天,我们将学习一个更快速、更易用的替代方案。 欢迎去B站观看本文对应的视频教程: Flux ControlNet Depth 模型的新特性 这款由 Jasper AI 开发的全新 ControlNet 模型的最大优势是,它可以与现有的 SDXL ControlNet 节点和采样器兼容,无需专门的Flux ControlNet 节点。这大大简化了搭建过程,使其更容易集成到您的现有工作流中。 关键优势: 模型下载 在开始之前,请从 HuggingFace下载 Flux ControlNet Depth 模型。下载后,请按照以下步骤操作: 如果您在流程中看到某些节点缺失,只需安装它们即可确保所有功能正常运行。 工作流程概览 该新工作流程分为三个主要部分: 整个流程大约包含 30 个节点,运行速度比以往更快。例如,在一张 3090 GPU 上,它可以在大约 1 分钟内生成一张图像。使用 Hyper LoRA 的 8 步图像生成甚至可以进一步提高速度! 让我们先看看原始图像和使用此工作流更换了背景的图像: 工作流程下载 您可以在这里下载完整的工作流。在使用它之前,请确保已正确下载并配置 ControlNet Depth 模型。 接下来,让我们逐步讲解每个部分的详细操作。 第…

Flux ControlNet 放大工作流:结合 Florence 2 和 GGUF 量化

Flux ControlNet 放大工作流:结合 Florence 2 和 GGUF 量化

大家好!今天我很高兴与大家分享一个使用 Flux 模型放大图片的 ComfyUI 工作流。在这篇文章中,我们将介绍如何设置这个工作流、其独特功能,并一步一步教你如何使用它来获得高质量的放大效果。 效果展示: 工作流简介 该工作流使用 Flux 模型对图片进行放大,同时保持高倍放大后的细节和清晰度。它具有一些独特的功能,如支持低显存的硬件设备以及使用 Florence2 自动生成提示词。 接下来,让我们深入了解如何在 ComfyUI 中设置和使用这个工作流。 B站教程:https://www.bilibili.com/video/BV1QBxse5Ebh/ 工作流可以在B站下载。 第一步:设置工作流 下载必要文件 该工作流的关键部分是 ControlNet 节点,它使用 Jasper AI 开发的 ControlNet 放大模型。请按照以下步骤下载并设置相关文件: 完成以上步骤后,ControlNet 模型就可以在 ComfyUI 工作流中使用了。 第二步:在 ComfyUI 中配置工作流 下载并配置好文件后,接下来我们来逐步配置和使用放大工作流。 上传图像 设置放大倍数 调整放大尺寸 如果放大后的尺寸不符合你的预期,可以暂停工作流,并调整放大倍数,直到达到理想的输出尺寸。 第三步:配置 ControlNet 这里是我们前面下载的 ControlNet 放大模型的应用部分。按照以下步骤进行设置: 选择 Clip 加载节点 根据工作流左上角的 布尔值(Boolean value),ComfyUI 会自动选择合适的节点来加载 Clip 文件。如果你在Clip 配置上遇到问题,请检查该布尔值是否与当前设置相匹配。 第四步:结果对比…

Flux | 使用提示词和LoRA控制布局和背景清晰度

Flux | 使用提示词和LoRA控制布局和背景清晰度

大家好!今天,我很高兴与大家分享一些我在使用Flux模型时学到的重要技巧。在过去的几天里,我生成了大约500张图片,通过调整提示词和LoRA,探索了如何通过不同的提示结构来控制图像的布局和背景清晰度。 在这篇文章中,我将详细介绍这些技巧,并展示如何在您自己的图像生成项目中使用它们。 让我们开始吧! 你还可以查看本篇文章的精彩视频教程: 1. 使用提示词结构控制布局 控制图像布局最有效的方法之一是通过调整您在提示词中描述场景的方式。具体来说,您提供的细节程度以及描述的顺序对主体在画面中的大小和背景的清晰度有重大影响。 示例 1:主体优先 请看以下提示词: A fisherman wearing a worn cap and a thick sweater, net slung over his shoulder, face weathered by the sea; a lively harbor at dawn. 一个戴着破旧帽子、穿着厚毛衣的渔夫,肩上挂着渔网,脸上布满海风的痕迹;黎明时分的热闹港口。 在这个例子中,大部分细节都集中在渔夫身上,而对港口的描述很简略。因此,生成的图像会主要聚焦于渔夫,渔夫在画面中占主导地位,而背景(港口)则模糊且不太详细。 示例 2:背景优先 现在,让我们将重点转移到背景上。将提示词修改为: A lively harbor at dawn, with fishing boats rocking in the water, seagulls circling overhead;…

用 Flux 生成的皮肤太假?用这个工作流解决!

用 Flux 生成的皮肤太假?用这个工作流解决!

在上一篇文章中,我们对 Flux 和 Midjourney 进行了比较。 尽管 Flux 取得了令人瞩目的进步,但它存在一个明显的不足——生成的皮肤塑料感很强。 例如,请看这张 Flux 生成的图像。 尽管使用 LoRA 增加了大量细节以提升逼真度,但某些区域仍显得很不自然。比如,脸部的皮肤纹理缺乏真实质感,胡须的方向也显得不自然。 为解决这个问题,我开发了一个 ComfyUI 工作流程,旨在增强 Flux 模型生成的肖像效果。 以下是此工作流的视频教程,包含工作流和模型的下载链接: 工作流的主要功能 本工作流程有三个突出特点: 1️⃣速度:我选择不使用“面部细化器(FaceDetailer)”或其他资源消耗大的细化器,因为 Flux 本身就对显存需求较大,增加更多细化器会降低处理速度。 2️⃣全面增强皮肤纹理:它不仅能改善面部皮肤,还能提升全身的皮肤质感。 3️⃣可选眼部细节增强:有时,Flux 会生成很漂亮的眼睛,而添加更多细节可能会减弱眼神光。使用此工作流,你可以选择增强眼睛细节或保持原样。 工作流概述 工作流分为三组: 1. 使用 Flux 生成人像 第一组使用 Flux 模型生成肖像。起初,生成的肖像皮肤可能会显得过于光滑和不真实。 解决方法如下: 我在本例中使用了“schnell fp8” 模型,但你也可以使用其他 Flux 模型。我还添加了一个 LoRA 以进一步增强逼真度。 自定义图像大小 在基本的 Flux 文生图工作流程中,有一个节点用于设置图像大小。我将其替换为另一个节点 (SDXL Empty Latent Size),允许你选择 SDXL 图像尺寸,从而无需手动输入尺寸。Flux…

midjourney vs flux

Midjourney危险了:来看 FLUX如何超越它

AI绘画领域发展迅猛,近来黑森林实验室推出的 FLUX 引发了创作者的高度关注。FLUX 乃是一套开源的文本到图像模型,据官方评估,其性能优于该领域众多领先模型,包括开源模型与闭源模型,其中广为人知的 Midjourney 也在其列。 作为曾对 Midjourney 功能展开广泛探索并予以记录之人,我对有关 FLUX 超越 Midjournbey 的说法饶有兴致。秉持着审慎的怀疑态度,我决定对 FLUX 加以测试,将其与 Midjourney 于几个关键方面进行直接比对。此文详尽阐述了我的研究成果,对这两款强大的AI绘画模型展开了全面比较。 欢迎观看本文的视频教程: 文本生成 首先,咱们来瞧瞧 FLUX 和 Midjourney 的文本生成功能。为凸显两者之差异,请看如下两组图片:左边为 FLUX Dev 生成的图片,右边则是 Midjourney V6.1 生成的图片。 1. 文本生成和质感 两个模型对于简单的单词拼写处理皆较为娴熟。然而,在纹理细节方面,FLUX 似乎更具优势。譬如,Midjourney 生成的单词“HEAL ”呈现出类似饼干的质感,这与预期的水果外观并不相符。相较而言,FLUX 所提供的纹理更为恰当,使文字看上去更为逼真,也更契合提示词的要求。 上面这组冰块的示例,质感上的差别就更为显著了。FLUX 生成的文本因其清晰度而引人注目——“Cubes”(冰块)一词周边轮廓清晰,极具视觉吸引力,而 Midjourney 的版本则缺乏这种精准度。 2. 宽高比灵活性 FLUX 的另一显著长处在于支持各类长宽比,此功能较 Midjourney 增添了更大的灵活性。例如,在宽高比为 1:1 的情形下,FLUX 生成的文字更小,间距也更小,确保从正面观之,五个字母皆清晰可辨。然而,Midjourney 在这一方面却难以做到——其字母显得颇为拥挤,且无法从正视角度清晰呈现。 结论 总体而言,FLUX 展现出卓越的文字生成和排版能力,在这一方面甚至超越了 Midjourney。FLUX…

Midjourney + ComfyUI = 完美产品摄影

Midjourney + ComfyUI = 完美产品摄影

Midjourney可以生成非常惊艳的产品摄影图片,但如果我们想要生成基于自己产品的场景图,就需要进行一些额外的处理。今天,我将分享如何通过Midjourney和我开发的ComfyUI工作流来生成更加贴合自己产品的场景图。 Midjourney+我的ComfyUI工作流 我们都知道Midjourney可以生成非常惊艳的产品摄影图片。比如,这张美容产品的图片就是Midjourney生成的。它的光线效果确实很棒。 但我们要的是基于自己产品的场景图,比如说,这是我们的产品,一款眼霜。 我们可以通过Midjouney的图像参考功能,尽可能地让图片里的产品接近我们的产品。 虽然完全再现我们产品的细节并不可能,但我还是通过Midjourney和我开发的ComfyUI工作流做出了这张图。 Midjourney为我生成了产品的场景,我的ComfyUI工作流帮我把产品完美地融入了场景。 它改变了产品的光影,但保留了所有产品上的细节,包括文字。 感谢大家的建议,我的工作流已经更新到第二版。如果大家想深入了解这个工作流的运行逻辑,可以看看我第一版工作流的视频介绍: https://www.bilibili.com/video/BV1Pf421B7Vb 🔗 下载此工作流(国外): https://openart.ai/workflows/myaiforce/GL2vEhda2lKbX0snXCNG 🔗 下载此工作流(国内): https://www.liblib.art/modelinfo/fdc1738d174f4cae8c203818b5b78565 本文将首先和大家分享如何用Midjourney生成产品的背景。然后,简单介绍下第二版工作流的所有更新。如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 如何用Midjourney生成产品背景 在创建产品摄影图时,一个好的背景能够有效地突出产品并提升其质感。我们可以通过Midjourney或Stable Diffusion生成符合自己需求的产品背景图。以下是具体步骤和提示词公式的介绍。 1. 提示词公式:创建多样化的展台 要生成多种类型的展台背景,可以使用以下提示词公式。你只需替换公式中的“材料”、“质地/图案”、“形状/结构”和其他括号里的内容,就能生成适合不同产品的展台。 2. 示例1:现代简约的科技产品背景 3. 示例2:乡村风格的有机护肤品背景 4. 不使用展台的背景生成 如果你不希望在背景中包含展台,也可以直接使用以下提示词公式生成背景: 或者,你也可以将你的产品图上传到Midjourney作为参考,直接生成一个与产品相似的图片。然后手动抹掉产品部分,留下背景,这样的图像也可以作为出色的产品背景。 例如,我在文中提到的背景图原本包含产品。 但我手动抹去了产品,只保留了背景,效果非常不错。 5. 延伸阅读 如果你想了解更多关于如何使用Midjourney生成产品摄影图片的技巧,可以参考我之前写的一篇详细文章。 ComfyUI工作流V2版本更新内容 在V2版本的ComfyUI工作流中,我根据大家的反馈和建议,进行了多项改进和功能更新。以下是具体的更新内容: 1. 精准抠图:从“Image Remove Bg”到“BiRefNet” 第一个重要更新是将原先用于抠图的“Image Remove Bg”节点替换为精度更高的“BiRefNet”节点。这一更新大幅提升了抠图的精确度,使得产品图与背景的融合更加自然。 2. 更便捷的图像调整:新增浮点滑动条 第二个更新是为“ImageBlend”节点增加了三个浮点滑动条,使您在调整产品位置和大小时更加方便。只需拖动滑条即可完成调整,无需再手动输入具体数值。 3. 优化产品边缘:新增“Lama Remover”节点 在“生成背景”组中,我新增了“Lama Remover”节点,用于解决产品边缘可能出现的多余像素问题。 4. 自动调整打光效果:新增“AutoAdjust”节点…

用SD模仿Midjourney的艺术效果

用SD模仿Midjourney的艺术效果

今天,我们将探索如何使用几种不同的LoRA,让Stable Diffusion生成的图像更接近Midjourney的艺术效果。这些LoRA可以组合使用,从而形成不同的效果组合。我们会在ComfyUI里搭建工作流来组合使用这些LoRA。当然,你也可以在WebUI或者Fooocus里使用这些LoRA。 我将会展示工作流生成的图片。通过这些图片,你可以很直观地了解不同的LoRA和它们的组合带来的不同效果。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 要用到的LoRA介绍 这些LoRA都可以在C站上下载。 使用的Checkpoint 在本教程中,我使用的Checkpoint是Albedobase XL。相比于其他模型,它的艺术效果更好,也更接近Midjourney。当然,你也可以用其他Checkpoint。如何知道哪些Checkpoint和LoRA搭配效果好呢?你可以在C站的LoRA页面查看其他用户生成的效果图。 点击你喜欢的图,查看生成这张图片用到的Checkpoint,例如RealVisXL。 在ComfyUI中搭建工作流 最简单的工作流 1️⃣ 下载并安装效率节点。 2️⃣ 最简单的工作流只需要4个节点。 3️⃣ 设置同时使用的LoRA数量。 复杂一点的工作流 在某些情况下,效率节点并不好用,可以使用更复杂的工作流: 1️⃣ 在ComfyUI默认工作流的基础上,添加两个节点。 2️⃣ 如果找不到这些节点,可以在ComfyUI管理器里安装“Comfyroll Studio”这个节点。 3️⃣ 这个节点最多允许同时使用3个LoRA。如果需要更多,可以再连接一个相同的节点。 LoRA的对比与组合 对比提升艺术效果的LoRA 我们将对比”Midjourney mimic”、”xl_more_art”和”Midjourney V6 Style”生成的效果。我这里用的LoRA权重都设为了1。 💠人像对比: 💠 动植物和风景对比: 不同权重组合的效果 通过不同权重组合使用LoRA,可以得到不同的效果。这里面的组合方案有很多。我倾向于把”xl_more_art”的权重设置得最高,把”Midjourney mimic”的权重设置得最低。因为”xl_more_art”对风格的影响最小一些,但它最稳定,所以要设置高权重。”Midjourney mimic”对风格的影响最大,但很容易出现一些细节性的错误,所以要设置低权重。 💠我的推荐组合: 💠效果对比: 💠再来看一张图片: 引入”Detail Tweaker XL” 💠组合方案: 💠效果对比: 💠再来看一张图片: 总结 通过本文的对比和组合,相信你已经对不同LoRA的效果有了更深入的了解。你还可以尝试其他组合和不同的权重,以及其他Checkpoint。生成的效果未必比Midjourney差。希望你能在创作过程中发现更多可能性!

ComfyUI人脸修图工作流,化妆磨皮吊打PS

ComfyUI人脸修图工作流,化妆磨皮吊打PS

大家好,今天我将介绍一个最新搭建的工作流,旨在使用AI对人像进行修图。通过这个工作流,你可以看到修图前后的显著对比:不仅给照片中的女性画了眼线和眼影,涂了口红,还使她的皮肤变得更加光滑,质感也非常真实。同时,她的面貌特征没有被改变,这才是真正意义上的AI修图。 如果你喜欢看视频教程,那么我非常欢迎你观看本文所对应的视频(B站同名帐号): 工作流简介 在导入工作流之前,我们需要下载一个关键的Checkpoint。这是整个工作流的核心,能够帮助我们用AI给人物进行“化妆”。当然,我们也可以使用Photoshop来实现类似的效果,但如果想要达到比较真实的质感,需要非常高的技术以及大量的时间。 下载Checkpoint 我们需要从HuggingFace上下载Checkpoint,下载地址:https://huggingface.co/stabilityai/cosxl/tree/main。 1️⃣ 注册并登录HuggingFace确保你已经在HuggingFace上注册并登录。 2️⃣ 进入下载页面我们要下载的Checkpoint是由开发Stable Diffusion的公司StabilityAI开发的。你需要提供一些个人信息并提交,才能进入到下载页面。 3️⃣ 下载Checkpoint在下载页面中,只需下载下面的Checkpoint即可。 导入工作流 导入工作流后,可能会发现缺失一些节点。可以在ComfyUI管理器里安装这些节点。 也可以手动安装。 搭建基础工作流 1. 添加”Check加载器” 2. 加载图像并制作遮罩 3. 添加提示词和CFG引导 4. InstructPixToPixConditioning 5. 添加 “图像遮罩复合” 节点 发现金色眼线扩散到了其他地方,遮罩未能有效限制。因cosxl_editCheckpoint的特殊性,我们不能用它来搭建局部重绘的工作流,但可以通过遮罩限定眼线区域。接下来,我们将添加一个节点来进一步控制修改区域,并在指定区域内涂抹眼影。 这个节点的作用类似于在Photoshop中将原图像放在上层,将目标图像放在下层,然后通过蒙版将对图像的修改限定在指定区域。 然后再添加 “图像对比” 节点,它的作用是对比修改前后的图像。将image_a端口连接到修改后的图像。将image_b端口连接到原始图像。 完成这些步骤后,我们再生成一张图,确保眼线被涂在指定区域。 6. 添加眼影 接下来我们再给她涂个眼影吧。把这张图复制一下。然后回到最开始的”加载图像”的节点,把图像粘贴过来。然后再做一个遮罩。遮罩模糊度我们设高一些。然后改一下提示词。把”双CFG引导”这里的CFG改小一些。然后再跑一张图。 进阶工作流:皮肤遮罩 在前面的步骤中,我们已经完成了眼线和眼影的添加。接下来,我们将详细讲解如何进行皮肤磨皮,使皮肤更光滑并且保持质感。这个过程涉及到一些高级节点配置,以确保面部皮肤的处理效果最佳。 1. 磨皮的重要性 磨皮是人像修图的关键步骤之一,但不能简单地重复之前的步骤。直接通过提示词如”光滑的皮肤”可能会导致不理想的结果。此外,手动为面部皮肤制作遮罩比较费时费力,因此我们将使用ComfyUI中专门为面部做遮罩的节点——FaceParse。 2. 添加 FaceParse 节点 3. 添加 ImageCropWithBBox 节点 4. 连接预览图像节点 5. 运行并检查结果…