古风汉服美女图集
导语: VAEStableDiffusion(稳定扩散)是一种用于生成模型的算法,结合了变分自编码器(VariationalAutoencoder,VAE)和扩散生成网络(DiffusionGenerativeNetwork)的思想。它通过对变分自编码器进行改进,提高了生成样本的质量和多样性。 扩散生成网络提高生成样本质量和多样性 VAEStableDiffusion的核心思想是使用扩散生成网络来替代传统...

VAE Stable Diffusion(稳定扩散)是一种用于生成模型的算法,结合了变分自编码器(Variational Autoencoder,VAE)和扩散生成网络(Diffusion Generative Network)的思想。它通过对变分自编码器进行改进,提高了生成样本的质量和多样性。

Stable Diffusion VAE PT:一种稳定扩散变分自编码器概率图模型

扩散生成网络提高生成样本质量和多样性

VAE Stable Diffusion的核心思想是使用扩散生成网络来替代传统的解码器。扩散生成网络是一个逐步生成样本的过程,每一步都通过对噪声进行扩散来生成样本。这种逐步生成的过程可以提高生成样本的质量,并且可以控制生成样本的多样性。

具体来说,通过使用VAE Stable Diffusion,我们可以得到颜色更鲜艳、细节更锋利的图像。特别是在生成脸部和手部等部位的图像时,其质量得到了显著的改善。

常见的VAE模型类型

在Stable Diffusion中,有几种常见的VAE模型类型:

  • stabilityai/sd-vae-ft-ema:使用EMA(Exponential Moving Average)类型的VAE模型,生成图像更锐利。
  • stabilityai/sd-vae-ft-mse:使用MSE(Mean Square Error)类型的VAE模型,生成图像更平滑。
  • WarriorMama777/OrangeMixs:用于动漫风格的图片生成。
  • hakurei/waifu-diffusion-v1-4:用于动漫风格的图片生成。

除了以上几种常见的VAE模型外,还有一些模型自带了自己的VAE模型,比如SDXL模型。

VAE模型在图像修复中的应用

在Stable Diffusion的世界中,修复人脸主要依赖于以下两个项目的能力:

  • TencentARC/GFPGAN
  • sczhou/CodeFormer

通过对高质量的图片和大量人脸数据进行训练,VAE模型在改善图像色调和轻微修正人脸方面具备了一定的能力。

最佳的VAE模型选择

在Stable Diffusion中,最佳的VAE模型选择如下:

  • kl-f8-anime (Anything V3):用于动漫风格的图片生成,通过对SD 1.4 VAE在多个动漫风格图片上进行微调得到。
  • kl-f8-anime2:用于动漫风格的图片生成,改进了颜色效果。
  • vae-ft-mse-840000-ema-pruned:适用于真实模型或风格,由StabilityAI创建。
  • OrangeMixs:用于动漫风格的图片生成。
  • Color101:用于改善颜色和色彩深度。

需要注意的是,如果基础模型对图像质量没有严格要求,不需要额外部署VAE模型,因为许多模型已经集成了VAE。然而,通过使用额外的VAE模型,可以获得更好的效果。如果需要部署额外的VAE模型,只需将下载的模型放置在相应的目录即可。

1、本文来自 Stable Diffusion教程攻略 投稿的内容 Stable Diffusion VAE PT:一种稳定扩散变分自编码器概率图模型 ,所有言论和图片纯属作者个人意见,版权归原作者所有;不代表 本站 立场;
2、本站所有文章、图片、资源等如果未标明原创,均为收集自互联网公开资源;分享的图片、资源、视频等,出镜模特均为成年女性正常写真内容,版权归原作者所有,仅作为个人学习、研究以及欣赏!如有涉及下载请24小时内删除;
3、如果您发现本站上有侵犯您的权益的作品,请与我们取得联系,我们会及时修改、删除并致以最深的歉意。邮箱: i-hu#(#换@)foxmail.com

2024-01-30

2024-01-30

古风汉服美女图集
扫一扫二维码分享