古风汉服美女图集

什么是Stable Diffusion

2024-01-14 13:46 0 微浪网
导语: 2022年发布的深度学习文本到图像生成模型StableDiffusion备受瞩目。这个模型主要用于根据文本描述生成详细图像,同时也可以应用于其他任务,如内补绘制、外补绘制,以及在提示词指导下产生图像的翻译。 StableDiffusion是一种潜在变量模型的扩散模型,由慕尼黑大学的CompVis研究团体开发的各种生成性人工神经网络。该模型是由初创公司StabilityAI、CompVis与Runw...

2022年发布的深度学习文本到图像生成模型Stable Diffusion备受瞩目。这个模型主要用于根据文本描述生成详细图像,同时也可以应用于其他任务,如内补绘制、外补绘制,以及在提示词指导下产生图像的翻译。

什么是Stable DiffusionStable Diffusion是一种潜在变量模型的扩散模型,由慕尼黑大学的CompVis研究团体开发的各种生成性人工神经网络。该模型是由初创公司StabilityAI、CompVis与Runway合作开发,并得到EleutherAI和LAION的支持。截至2022年10月,StabilityAI已筹集了1.01亿美元的资金。

与以往的专有文本到图像生成模型不同,Stable Diffusion的代码和模型权重已经公开发布,可以在配备适度GPU的电脑硬件上运行。这使得普通用户也能够使用这个模型,而不需要依赖云端运算服务。

Stable Diffusion是一种扩散模型的变体,被称为”潜在扩散模型”(latent diffusion model; LDM)。扩散模型最早于2015年推出,其目的是通过去噪自编码器的连续应用来消除训练图像中的高斯噪声。Stable Diffusion由三个部分组成:变分自编码器(VAE)、U-Net和一个文本编码器。与传统的去噪图像数据不同,Stable Diffusion通过训练VAE将图像转换为低维潜在空间进行去噪操作。在前向扩散过程中,高斯噪声被迭代地应用于压缩的潜在表征。每个去噪步骤由一个包含残差神经网络(ResNet)的U-Net架构完成,通过从前向扩散往反方向去噪来获得潜在表征。最后,VAE解码器将表征转换回像素空间,生成最终的输出图像。研究人员指出,LDM的一个优势是降低了训练和生成的计算要求。

在Stable Diffusion中,去噪步骤可以以文本串、图像或其他数据为条件。通过交叉注意机制,数据的编码可以被调节并暴露给去噪U-Net的架构。为了对文本进行调节,Stable Diffusion使用了一个预训练的固定CLIP ViT-L/14文本编码器,将提示词转化为嵌入空间。

总的来说,Stable Diffusion是一种创新的深度学习文本到图像生成模型。

1、本文来自 Stable Diffusion教程攻略 投稿的内容 什么是Stable Diffusion ,所有言论和图片纯属作者个人意见,版权归原作者所有;不代表 本站 立场;
2、本站所有文章、图片、资源等如果未标明原创,均为收集自互联网公开资源;分享的图片、资源、视频等,出镜模特均为成年女性正常写真内容,版权归原作者所有,仅作为个人学习、研究以及欣赏!如有涉及下载请24小时内删除;
3、如果您发现本站上有侵犯您的权益的作品,请与我们取得联系,我们会及时修改、删除并致以最深的歉意。邮箱: i-hu#(#换@)foxmail.com

2024-01-14

2024-01-14

古风汉服美女图集
扫一扫二维码分享