stable diffusion controlnet brightness

Stable Diffusion 改变光线的能力简直太强大了!

在没有 Stable Diffusion 的年代,对照片的光线进行后期处理,基本上要依靠 Photoshop。比如添加一个曝光图层。这个技术对于形状简单的物体来说很方便,因为光线效果很好模拟。但对于形状复杂的主体,比如人来说,要想实现自然的光线效果,你最好得有美术功底,并配备一个数位板。 Stable Diffusion 的出现使得改变光线变得既简单又自然,因为它学习过无数的照片里的光线,从而可以模拟出非常真实的光线效果。 本文将通过实际案例,为你一步步揭晓这一神奇的功能,让你借助 AI 的力量轻松驾驭图片里的光线。 任务简介 下面这张图也是 Stable Diffusion 生成的。当然,我们也可以处理相机拍出来的照片。 图中的光线是从主体左边照过来的。现在我们要换一个方向,变成右边照过来。如果在 Photoshop 的曝光图层上通过画笔涂抹的话,没有美术功底的人很难实现非常自然的效果。让我们看看怎样通过 Stable Diffusion 来处理。 用到的模型 我们将要借助 Stable Diffusion 的 ControlNet Brightness 模型。这个模型可以在 HuggingFace 上下载,地址是 huggingface.co/ioclab/ioc-controlnet/tree/main/models。 如果你跟我一样用这个SD云平台的话,它已经被内置在 WebUI 里啦,简直太方便! 👉 玩 Stable Diffusion 没有好显卡?试试秋叶大佬推荐的云平台 这个模型,顾名思义,就是用来控制图像明暗。 我们只需要选择它,并上传一张记载图像明暗信息的灰度图。为了改变原图的明暗,我们可以在 Photoshop 中修改它的灰度图。 PS预处理 在 Photoshop 中将图片转换为灰度模式后,我们就可以使用减淡/加深工具来调整明暗。在需要提亮的地方,我们使用减淡工具进行涂抹;在需要调暗的地方,我们则使用加深工具进行涂抹。 这些涂抹不需要很精细,因为稍后 Stable Diffusion 会把明暗关系处理得更自然。下图是我涂抹的灰度图。 我把主体头顶上方的区域由亮变暗。并把主体的右侧身体提亮,左侧身体变暗。图片左上角也增加了明亮区域。 SD处理光线…

midjourney stable diffusion product photography

Midjourney + Stable Diffusion 做场景图 (ControlNet Depth)

Midjourney V6 生成的图片细节逼真,堪比真实摄影。它可以解决绝大多数商业上的场景图需求。从此再也不必专门为了场景而去拍摄照片了。 可是,光有场景很难实现商业上的落地。如何把产品很自然地融入其中才是关键!这时候 Stable Diffusion 就派上用场了。 我将通过实际案例演示 Midjourney 如何配合 Stable Diffusion 做出一个非常有场景感的产品图片。 1. Midjourney 生成场景图 在 AI 赋能摄影的时代,我们只需要一张基本的白底产品图即可。下图是一幅薄荷精油的图片,我们将要为它塑造场景。 为了展现精油健康,有机的产品形象,我们需要为此设计相关的场景。我用下面的提示词在 Midjourney 中生成了一幅场景图。我把白底的产品图给 Midjourney 做参考,这样它生成的产品和真正的产品会更像。 Prompt: Medium: Photo. Subject: A bottle of peppermint essential oil on a moss-covered log, surrounded by peppermint leaves. Emotion: Serene. Lighting: Natural, clear blue sky. Scene: Bubbling brook in the background,…

白底图换场景图 (Stable Diffusion + Photoshop Beta)

白底图换场景图 (Stable Diffusion + Photoshop Beta)

Stable Diffusion 因其出色的可控性,越来越受到专业人士的青睐,成为 AI 绘图工具中的佼佼者。以电商领域为例,它带来的影响不仅仅是提升了效率,更重要的是降低了成本。以前,要拍摄一组高质量的场景图,通常需要求助专业的摄影工作室。而摄影工作室为了打造一个合适的场景,可能需要在装修上投入大量的成本。 现在,Stable Diffusion 可以轻松生成各种类型的场景图,使得整个流程都可以在电脑上完成。我们甚至只需要拍摄一张简单的白底图就可以了。本文将通过一个实际案例来演示这个工作流程。借助 Stable Diffusion 和 PS Beta ,我们将为下图所示的香水白底图添加一个场景。 很多人没有入门 Stable Diffusion 的原因是没有好的显卡。但现在的云端技术很发达,完全可以在云端跑 Stable Diffusion。还没有使用过的朋友可以看看我的这篇介绍: 👉 玩 Stable Diffusion 没有好显卡?试试秋叶大佬推荐的云平台 1. 在 SD 中生成场景图 我选择的是基于 SDXL 的模型 DreamShaperXL Turbo 模型。它不仅出图速度快,而且画质也很好。我甚至反向提示词 (Negative prompt) 都不用写。 它只需要 7 步就能生图,采样器 (Sampling method) 我选的是 “DPM++ SDE Karras”。 为了让原先的香水瓶在场景中的形状和构图保持不变,我把原先的白底图上传到 ControlNet,然后用 Canny 模型生成它的轮廓图。如下图所示,我基本没有调整参数。也可以勾选完美像素 (Pixel Perfect),对照片的效果更好一些。 点了哪个形状像爆炸一样的按钮,Stable Diffusion…

用 Stable Diffusion 10分钟实现电商模特换装/换模特

用 Stable Diffusion 10分钟实现电商模特换装/换模特

Stable Diffusion 以其可控性被越来越多的设计师纳入了工作流程。以电商为例,在AI工具出现以前,拍摄服装的成本很高昂。聘请专业的模特都是按小时计费的。聘请外模的话价格就更高了。 如今,服装可以穿在任何人身上,甚至塑料模特身上。借助 Stable Diffusion,就可以把塑料模特替换为真人模特。于是,拍摄服装的成本大大降低。 和传统PS抠图相比,Stable Diffusion的效果更加自然。并且这套流程还可以应用在产品上面。对于电商来说是革命性的。 接下来,让我们通过实际案例来了解实现过程。我们的目标是替换掉下面的模特。其实,这个模特甚至可以是塑料模特。这样,在拍摄服装时,我们只需要找到一个塑料模特,然后穿上我们想要展示的服装即可。 安装插件 首先我们要为 Stable Diffusion 安装一个叫 ”Inpaint Anything“ 的插件。它可以利用最先进的图像识别算法,为你制作蒙版。这个做蒙版的过程比在 PS 里更加方便快捷。 当然,有些用户也许不必安装。比如我在使用的一个云平台,内置 Inpaint Anything 插件。 👉 玩 Stable Diffusion 没有好显卡?试试秋叶大佬推荐的云平台 总的来说,安装这个插件有两种方式。 1️⃣ 通过 WebUI 安装,这种方法适用于本机魔法环境。把 https://github.com/geekyutao/Inpaint-Anything.git 这个网址复制到 WebUI,并点击安装。 接着点击 ”已安装“ 标签页,然后点击 ”应用并重启用户界面“。 重启 WebUI 之后,就可以看见 Inpaint Anything 出现在 WebUI 的标签页了。 2️⃣ 本地上传。前往 https://github.com/geekyutao/Inpaint-Anything/releases 这个网址,然后根据自己的系统选择一个压缩包,下载并解压至 WebUI 的 Extension…

揽瑞星舟

玩 Stable Diffusion 没有好显卡?试试秋叶大佬推荐的云平台揽睿星舟

很多喜欢AI绘画的朋友一听说 Stable Diffusion 就望而却步了。总觉得要买个大几万的好显卡才能跑的起来。其实现在云端那么发达,上面的显卡应有尽有。硬件不应该成为我们 AI 道路上的绊脚石。 云平台甚至比本机部署还要方便。拿我最近一直在使用的这个云平台举例。它支持一键部署 Stable Diffusion,自带200多个模型和各种常用插件。几乎就是直接上手。安装过程中遇到任何问题还可以找客服解决。 我已经连续使用了一个礼拜,几乎每天都在用。 它也得到了秋叶大佬的多次种草。平台上甚至还有秋叶亲自制作的炼丹炉。 它的性价比也很高,经常有各种优惠活动。3090的显卡从晚上12点到次日早上9点更是低至1.5元/时。 我总结了自己使用它的理由: 注册 为了演示注册过程,我新注册了一个账号。 1️⃣ 打开网址:https://www.lanrui-ai.com/register?invitation_code=1297820264 2️⃣ 打开网址以后就自动填入了我的邀请码1297820264。有了这个邀请码,就可以获赠新人的白嫖券。接着完成注册。 开始免费体验 1️⃣ 点击屏幕右上角用户名,然后在下拉窗口中点击充值按钮。 2️⃣ 选择其它金额,输入3.8,就可以看见一个新人专享体验券。接着选择体验券,然后点击充值并零元支付。 创建工作空间 1️⃣ 点击顶部导航栏的”去市场“按钮,进入选择一台机器。 2️⃣ 根据需要选择一个 GPU,并点击购买。根据是否有活动和使用的时间段,这个价格也会波动。 3️⃣ 再选择一个镜像。推荐”SD1.6+SDXL全插件版“。因为它继承了多个最新且实用的插件。网盘选择挂载。网盘提供无限大的存储空间,每个用户拥有10GB免费空间,超过部分会按照实际使用量计费(0.15元/GB/月)。数据集选择”sd-base“。预训练模型根据自己的需要,如果想体验SDXL,可以选择”sdxl-models“。否则,选择”sd-webui-model“。最后,点击右下角的”创建“按钮。 之后稍等几分钟,待状态变为”运行中“以后,工作空间的实例就创建好了。然后点击右侧的”进入“按钮,并选择 ”JupyterLab“。 启动WebUI 1️⃣ JupyterLab 类似于 Windows 电脑上的文件浏览器。里面可以浏览各种模型,插件。进入 JupyterLab 以后,点击”Terminal“进入终端。 2️⃣ 进入终端会弹出说明。根据说明,平时输入命令 bash /app/start.sh 即可启动 WebUI。 首次启动因为没有安装额外的插件,所以可以输入bash /app/start.sh –skip-prepare-environment 这个命令跳过环境准备,更快地启动 WebUI。 3️⃣ 当页面显示“http://0.0.0.0:27777”,说明已启动成功。…

best image generator for pose control

控制人物姿势,哪个AI绘图工具最棒?

Midjourney V6 发布了,图片真实感很强。大家都欢欣鼓舞,好像世界上已经不需要摄影师了。其实,真正用过AI绘图工具的人,都知道它们的普遍弱点。这个弱点短时间内无法被彻底解决。 我们今天来一个挑战项目,用主流 AI 绘图工具 (Midjourney, DALL-E 和 Stable Diffusion) 来绘制下面这张图。这张图是从Unsplash图片库下载的,是真实的摄影图。 DALL-E 首先让 DALL-E 接受这个挑战。为了让它能够精确地呈现画面的每一个元素,包括瑜伽姿势,我写了个非常详细的提示词: Prompt: Wide photos of an athletic Asian female performing a one-legged wheel yoga pose with one leg extended up towards the ceiling. Her back is deeply arched, forming a semi-circular wheel shape. Both her arms are straight with hands…