Babes2.0模型

在 4 个训练周期中训练了 1600 张来自几种风格(见触发词)的图像,具有增强的逼真风格。在 576px 和 960px 上训练,80 多个小时的成功训练,以及无数小时的失败训练🥲。

混合比例:写实25%,辣10%,文体14%,动漫30%,毛茸茸9.5%,其余为核心训练,强化至原训练的96%。

您的结果不是与任何特定图片100%相同吗?

确保使用示例 SwinIR_4x / 4x-UltraSharp / 4x-AnimeSharp / RealESRGAN_x4plus_anime_6B(Upscaler 下载)中的 Hires-fix 以及“进行 hires 时的高级潜在空间图像。修复”,这是我通常用于 hires-fix 的。

使用 VAE: vae-ft-mse-840000-ema-pruned以获得更好的颜色。将其下载到“stable-diffusion-webui/models/VAE”文件夹中。在设置中选择它。

我使用 xformers – 这是一个小的性能改进,可能会改变结果。它不是必须的,而且可能很难安装。可以在启动 WebUI 时使用命令参数“–xf​​ormers”启用。

WebUI 会随着一些影响图像生成的变化而不断更新。很多时候技术进步优先于向后兼容性。

硬件差异可能会影响更改。我听说很多人用相同的设置测试了相同的提示,但结果并不相同。

我在我自己的系统上看到,当作为批处理的一部分运行时,结果可能会有所改变。

我怀疑模块内部存在我们无法更改的隐藏变量,这些变量会由于内部状态变化而产生略有不同的结果。

图像尺寸、步长、采样器、提示和许多其他方面的任何变化都可能导致结果出现或大或小的差异。

你真的想从图像中得到准确的结果吗?您可以做一些事情,并可能获得更好的结果。

对提示/否定提示和测试进行单个单词更改,然后将其慢慢推向您想要的方向。

如果图像有太多的东西或没有足够的东西,请尝试使用 强调。例如,太有光泽?使用“(glossy:0.8)”或更少,或将其从提示中删除,或将其添加到负数中。想要更多,请使用值 1.1-1.4,然后在同一方向添加其他描述符。

使用变体 – 使用相同的种子,并在种子右侧勾选“额外”。将“Variation strength”设置为较低的值 0.05,生成一些图像,然后观察变化有多大。如果你想要更多的变化,就增加,如果你想要更少的变化,就减少。这样你就可以生成大量与原始图像非常相似的图像,但其中一些会更好。

改善结果的建议:

使用 VAE 以获得更好的颜色和细节。您可以使用模型自带的 VAE 或从 ( https://huggingface.co/stabilityai/sd-vae-ft-mse-original/tree/main ) 下载“vae-ft-mse-840000-ema-pruned”, ckpt 或 safetensors 文件放入“stable-diffusion-webui/models/VAE”文件夹。在设置中找到“SD VAE”,刷新它,然后选择“vae-ft-mse-840000-ema-pruned”(或包含的版本与模型)。单击顶部的“应用设置”按钮。模型附带的 VAE 是“vae-ft-mse-840000-ema-pruned”,您不需要两者,使用您下载的那个, 它也适用于大多数其他型号。

使用 hires-fix、SwinIR_4x / 4x-UltraSharp / 4x-AnimeSharp / RealESRGAN_x4plus_anime_6B(Upscaler 下载),第一次通过大约 512×512,第二次超过 960×960,并尽可能保持两次通过之间的比率相同。

使用底片,但不要太多。当你看到你不喜欢的东西时添加它们。

使用 CFG 7.5 或更低版本,提示很重,使用很多重点并且很长,您可以低至 3.5。而且一般尽量减少强调的使用,你可以把更重要的东西放在提示符的开头。如果一切都很重要,那就根本不要强调。

谨慎更改,在提示开始时所做的更改影响更大。因此,每个概念都会极大地影响您的结果。

阅读并使用手册 ( https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features )。

向他人学习,从看起来不错的图像中复制提示,并与他们一起玩。

DPM++ 2M Karras 是包括我在内的许多人的首选采样器。40步就够了,我一般用20步。

用于帮助、分享、炫耀、实验和挑战的Discord 服务器

Babes2.0模型

Babes2.0模型

类型 CHECKPOINT TRAINED 基于 SD1.5 大小 1.99GB 版本 v2.0
已经登录?刷新
(0)
上一篇 2023年5月13日 09:40
下一篇 2023年5月17日 17:54

相关推荐

分享本页
返回顶部