【人工智能绘画】“现代最强”vs“历史上最强”(AI高级文章:FLUX模型下载)
大家好,我是超超超程序员。
在上一篇笔记中,我简单了解了FLUX模型比其他市场模型更好的点,例如,在庞大的训练集的帮助下,FLUX具有很强的提取关键元素的能力,简而言之,它更“听话”,能准确捕捉提示词中的关键信息。
当然,你还是要体验跑图试试#xff00c;让我们来看看FLUX模型是否能动摇Stable Diffusion模型的地位,所以今天的文章将讨论如何下载模型以及如何操作。
模型下载。
虽然FLUX是开源,但也需要“三件套”才能顺利运行,需要下载基本模型、文本编码器和VAE(#xfff09编码器;。
这些都是可以在hugingface下载的,需要准备大约55G的空间:。
Dev模型。:https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main。
文件名:flux1-dev.safetensors。(23.8GB)。
Schnell模型。:https://huggingface.co/black-forest-labs/FLUX.1-schnell/tree/main。
文件名:flux1-schnell.safetensors。(23.8GB)。
文本编码器:https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main。
文件名:
clip_l.safetensors。(234MB)。
t5xxl_fp16.safetensors。(9.79GB)。
VAE编码器:https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main。
文件名:ae.safetensors。(335MB)。
目前,FLUX模型在本地运行的最佳选择是在ComfyUI上,人工智能绘画应用是ComfyUI最受欢迎的节点。
但在使用FLUX之前,最好将ComfyUI更新到最新版本在ComfyUI界面中直接更新即可。
还有一点需要注意的是,刚下载的文件需要放在ComfyUI的根目录文件下:
- 路径上放置了两个20多GB的基本模型:。 ComfyUI/models/unet。
2. 路径放置两个文本编码器a;ComfyUI/models/clip。
3. VAE编解码器放在路径上a;ComfyUI/models/vae。
放置上述文件后,可以完全关闭(后台包括后台并重启ComfyUI。
FLUX操作。
ComfyUI官员还提供了FLUX模型的标准工作流,获取方法也很简单直接来到GitHub页面然后将图片直接拖入ComfyUI。
https://comfyanonymous.github.io/ComfyUI_examples/flux/。
这是DEV模型的标准工作流,至于怎么操作。
第一步。:首先,在右上角找到三个节点,加载刚刚下载的扩散模型Unet、CLIPVAE和文本编码器。
第二步:找到这个绿色的文本编码器框,也就是说,在输入提示词的地方,用英语输入想要生成的内容,如果你不知道该写什么,请参考以下段落。
A filmic upper body portrait of a young woman in black forest, holding a paper showing words “FLUX Dev”。
在这个绿色节点上方还有一个FluxGuidance,即Flux引导系数值,控制提示词的强度,数值越低,AI发挥越自由,相反,越忠诚。
第三步:下面有两个节点分别填写生成图片的宽度和高度,根据自己的需要决定也可根据图片中的参数进行更改。
宽1024 高576。
第四步:以下参数将部分影响生成结果,一些使用过WebUI的小伙伴非常熟悉,但以防万一我在这里再次提示(所有以下设置都可以保持默认)。
batch_size(批次尺寸):指一次性生成图片的数量,数值高会显著提高占用值c;一般默认1.。
noise_seed(随机种子):决定生成图片的初始噪声,相同的随机种子可以在同一提示词下生成相似的图片,如果要固定种子,请从第二个选项开始。randomize。改为。fix。
KSamplerSelect(采样器选择):决定模型去噪生成图片的方式,一般保持默认。
Scheduler(xff09调度器;:也用于决定模型去噪生产图片的方式,一般保持默认。
Steps(步数):去噪模型生产图片的步数,Dev模型一般为20步,如果是Schnell模型,只需要4步。
Denoise(降噪):默认按1设置在图生图等输入原图的过程中,可用于控制“重绘”范围(即与原始图像的相似性)。范围一般为0-1间,0时与原图完全一致。
max_shift&base_shift(最大偏移󿼉基础偏移;:设置#xff0用于稳定图像生成过程c;自动调整默认流程。
第五步:完成上述操作后,可以点击生成图片。
然后你可以在最右边的输出节点看到生成的图片!
这是在ComfyUI中使用DEV模型的过程,Schnell模型相似,#xff0c;只需将生成的Steps步数设置为4步,它的生成速度会很快,但质量不如DEV。
ComfyUI的一个好点是,从文生图到图生图的过程可以改变下一个节点。
根据原教程UP的视频截图,我改变了,这里的微信官方账号图片可能比较小,不太清楚推荐感兴趣的朋友直接在文末原教材链接的简介中下载。
当然,除了ComfyUI,还有SD WebUI FLUX也可以使用FLUXc;这个Forge相当于一个SD WebUI 改进版本。
当然,上面下载的三件套也需要复制粘贴在ForgeUI下面。
flux1-dev.safetensors和flux1-schnell.safetensors放在这条路径上:
WebUI/models/stable-diffusion。
clip_l.safetensors和t5xxl_fp16.safetensors放在这条路径上:
WebUI/models/text_encoder。
ae.safetensors放在这条路径上:
**WebUI/models/VAE。
**。
放好所有这些文件后,可以点击run.bat来启动forgeUI。
打开后,主界面左上角有四个UI选项,FLUX的选择。
flux1选择checkpoint选项-dev.safetensors选项。
VAE/Text 选择Encoder时,按键盘Ctrl将aencoder选择.safetensors、clip_1.safetensors和t5xxl_fp16.选择safetensors。
然后在下面的框中简单输入提示词:
A filmic upper body portrait of a young woman in black forest, holding a paper showing words “FLUX in Forge”。
然后点击右侧的Generate生成图片!
然而,一些朋友可能会发现下面的Negative prompt是锁定的,这是因为FLUX不需要负面提示来限制。
Distilledd下方 CFG Scale是之前提到的FLUX引导值。
这样,FLUX就可以简单地在本地生成图片,如果选择Schnell模型,记得将采样迭代步数从20改为4。
今天的内容到此为止!
你可以先试试FLUX的生成结果,看看哪个模型是你最喜欢的,至于FLUX和Stable 我还需要几个笔记来验证Diffusion到底谁更适合我。
在接下来的几篇笔记中,我们将尝试如何减少显存并结合LoRA、看看ControlNet等插件的效果。
下一篇笔记大家都会看到,崇拜!
写在最后。
AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用c;使游戏和计算系统具有更高效、更智能、更灵活的特点。同时,AIGC技术也将与人工智能技术紧密结合c;广泛应用于更多领域,对程序员的影响至关重要。未来,AIGC技术将继续改进,同时也将与人工智能技术紧密结合,广泛应用于更多领域。
感兴趣的朋友,赠送全套AIGC学习资料和安装工具c;AI绘画、AI人工智能等前沿技术教程,模型插件具体看下面。
AIGC各个方向的学习路线。
整理AIGC各个方向的技术点,形成各领域的知识点总结,它的用途在于,您可以根据以下知识点找到相应的学习资源,确保自己学得更全面。
二、AIGC必备工具。
所有的工具都帮你整理好了,安装可直接启动!
三、最新AIGC学习笔记。
当我学到一定的基础时c;当你有自己的理解能力时,阅读前人整理的一些书籍或手写笔记资料,这些笔记详细记录了他们对某些技术点的理解,这些理解比较独特,你可以学到不同的想法。
四、AIGC视频教程集合。
观看全面零基础学习视频看视频学习是最快最有效的方式,跟随视频中老师的想法,从基础到深度,还是很容易入门的。
五、实战案例。
纸上得到的时候感觉很浅,学会和视频一起敲#xff0c;动手实操,只有这样,我们才能把所学应用到实践中去,这个时候可以搞点实战案例学习。
插入图片描述。
侵权,请联系删除。
本文地址:http://cdn.baiduyun.im/video/www.bfzx365.com/video/633b62098746.html
版权声明
本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。