分享好友 最新动态首页 最新动态分类 切换频道
【生成模型】Stable Diffusion原理+代码
2024-12-26 10:05
文章目录
  • 前言
  • 一、Latent space
  • 二、AutoEncoder 和 VAE
    • 1.AutoEncoder:
    • 2.VAE
  • 三、Diffusion扩散模型
    • 1.前向过程
    • 2.逆向过程
  • 四、多模态 cross attention
  • 五、Stable Diffusion原理
    • 1.训练过程
      • ResnetBlock
      • Spatial Transformer(Cross Attention)
      • DownSample/UpSample
    • 2.前向过程
  • 六、代码解析*
    • 0.安装提示
    • 1.整体代码
    • 2.unet解析
      • 1、self.input_blocks
      • 2、middle_blocks
      • 3、self.output_blocks
  • 总结

Stable diffusion是一个基于 Latent Diffusion Models(潜在扩散模型,LDMs)的文图生成(text-to-image)模型。具体来说,得益于 Stability AI 的计算资源支持和在 LAION-5B 的一个子集数据支持训练,用于文图生成。

【生成模型】Stable Diffusion原理+代码


隐空间是压缩数据的一个表示。数据压缩的目的是学习数据中较重要的信息。以编码器-解码器网络为例,首先使用全卷积神经网(FCN)络学习图片特征,我们将特征提取中对数据的降维看作一种有损压缩。由于解码器需要重建(reconstruct)数据,模型必须学习如何储存所有相关信息并且忽略噪音,压缩(降维)的好处在于可以去掉多余的信息从而关注于最关键的特征。

1.AutoEncoder:

(1)AE是一个预训练的自编码器,优化目标是通过 Encoder 压缩数据,再通过decoder 还原数据,使得输入输出的数据尽量相同

(2)对于图像数据,decoder 还原数据可以看做是一个生成器,由于 decoder 输入数据z属于R空间,输入z的分布无法被固定住,所以大部分生成的图片是无意义的。

2.VAE

(1)给定输入解码器的z一个分布可以解决上述问题,假设一个服从标准多元高斯分布的多维随机变量的数据集X,根据已知分布采样得到的zi,来训练decoder神经网络,从而得到多元高斯分布的均值和方差,从而成功得到一个逼近真实分布p(X)的p’(X)

(4)利用encoder通过假设已知数据的分布,拟合其参数,从而逼近真实的后验分布p’(z|xi),在这里假设后验分布是基于多元高斯分布,则让encoder输出分布的均值和方差

1.前向过程

2.逆向过程

1.训练过程

(1)使用预训练的CLIP模型,对需要训练的图像数据生成对应的描述词语。

(2)使用预训练的通用VAE,先用Encoder,将输入图片降维到 latent space(通常降采样倍数4-16

(3) 将latent space输入diffusion model,进行扩散(正向采样,一步步生成噪声(在这个过程中,通过权重 β 控制每步生成噪声的强度,直到生成纯噪声,并记录每步生成噪声的数据,作为GT

(4)利用cross attention 将 latent space的特征与另一模态序列的特征融合,并添加到diffusion model的逆向过程,通过Unet逆向预测每一步需要减少的噪音,通过GT噪音与预测噪音的损失函数计算梯度。

ResnetBlock

左下角小图所示, ResnetBlock 接受两个输入latent 向量经过卷积变换后和经过全连接投影的 timestep_embedding 做加和,再和经过 skip connection 的原始 latent 向量做加和,送入另一个卷积层,得到经 Resnet 编码变换后的 latent 输出。

注意左侧的 ResnetBlock 和右侧的 ResnetBlock 的细微不同。左侧的 Resnet Block 接受的 latent 向量从 UNET 的上一层传入,而右侧的 ResnetBlock 除了接受 UNET 上一层的结果 latent 外,还需要接受左侧对应的 UNET 层的输出,两个 latent concat 起来作为 输入。所以,如果右侧的 ResnetBlock 上层的输出结果 shape 为 (64, 64, 320),左侧对应 UNET 层的输出结果为 (64, 64, 640),那么这个 ResnetBlock 得到的输入 latent 的 shape 为 (64, 64, 960)。

Spatial Transformer(Cross Attention)

右下角小图所示,Spatial Transformer 同样接受两个输入:经过上一个网络模块(一般为 ResnetBlock)处理和变换后的 latent 向量(对应的是是图片 token,及对应的 context embedding(文本 prompt 经过 CLIP 编码后的输出, cross attention 之后,得到变换后的 latent 向量(通过注意力机制,将 token 对应的语义信息注入到模型认为应该影响的图片 patch 中)。 Spatial Transformer 输出的 shape 和输入一致,但在对应的位置上融合了语义信息。

DownSample/UpSample

DownSample 将 latent 向量的前两个轴的大小缩减 50%,而 UpSample 将 latent 向量的前两个轴的大小增大一倍。DownSample 使用一个步长为 2 的二维卷积来实现,同时将输入 latent 向量的 channel 数变化成输出 latent 向量的 channel 数;而 UpSample 使用插值算法来实现,在插值之后进行一个步长为 1 的卷积,同时通过一个步长为 1 的二维卷积来将输入 latent 向量的 channel 数变化成输出 latent 向量的 channel 数。

需要注意的是,在整个 UNET 执行一次的过程中,timestep_embedding 和 content embedding 始终保持不变。而在 UNET 反复执行多次的过程中,timestep_embedding 每次都会发生变化,而 content embedding 始终保持不变。在迭代过程中,每次 UNET 输出的 noise_slice 都与原来 latent 向量相减,作为下次迭代时,UNET 的 Latent 输入。

2.前向过程

一个 Image Auto Encoder-Decoder,用于将 Image 编码成隐含向量
,或者从隐含向量
中还原出图片
一个 UNET 结构,使用 UNET 进行迭代降噪,在文本引导下进行多轮预测,将随机高斯噪声
转化成图片隐含向量

1.用文本编码器( CLIP 的 ViT-L/14 ,将用户输入的 Prompt 文本转化成 text embedding
2.根据假定分布(一般是多元高斯分布,生成一张纯噪音图像
3.利用VAE encoder 压缩到latent space
4.执行Denoising Unet,利用cross attention融合多模态信息,并预测每一步需要减去的噪音
5.利用VAE decoder还原到同一分布下的原图大小

0.安装提示

0.1 需要下载 transformers 和 diffusers

 

我的版本

 

0.2 注册Huggingface token

进入官网:https://huggingface.co/ ,右上角 settings(注册token,需要邮箱链接验证

1.整体代码

 

2.unet解析

DDIM中的Unet 包含输入模块中间模块输出模块三部分

1、self.input_blocks

包含12个不同的 TimestepEmbedSequential结构,下面列举三种

 

前向过程
为h添加emb和交与propmt的交叉注意力,会执行多次

 

噪音图像h(4,4,32,32)在其中变化为(4,320,32,32(4,320,16,16(4,640,16,16(4,1280,8,8(4,1280,4,4

2、middle_blocks
 
3、self.output_blocks

与输入模块相同,包含12个 TimestepEmbedSequential,顺序相反


关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助

👉[[CSDN大礼包《StableDiffusion安装包&AI绘画入门学习资料》免费分享]]安全链接,放心点击

对于0基础小白入门

如果你是零基础小白,想快速入门AI绘画是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案

包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画

👉stable diffusion新手0基础入门PDF👈

👉AI绘画必备工具👈

👉AI绘画基础+速成+进阶使用教程👈

👉大厂AIGC实战案例👈

👉12000+AI关键词大合集👈

最新文章
重磅首发|《2024中国人工智能多模态大模型企业综合竞争力20强研究报告》
人工智能是推动科技跨越发展、产业优化升级、生产力整体跃升的战略性新兴产业。自美国开放人工智能研究中心OpenAI对外发布首个文生视频大模型Sora以来,多模态大模型作为人工智能的核心组成部分,以其强大的学习能力和巨大的应用潜力,正在
铁甲虫(铁甲虫图片)
1、打开【AI】软件,新建画布,使用【椭圆工具】绘制一个圆,在【属性】中选择圆头端点,圆形边角和使描边外侧对齐。2、钢笔工具,绘制如图形状,作为河流,画笔工具,选择一种画笔样式,作为水花。 钢笔工具,绘制2个如图形状,作为2个悬
燧原科技(Enflame Technology) 针对神经网络训练的创新型云人工智能芯片,使用Mentor的Tessent测试设计(DFT)解决方案
December 16, 2019 -- ​Mentor, a Siemens business, today announced that leading artificial intelligence (AI) solution provider Enflame Technology recently used Mentor’s Tessent™ software product family
营销沙盘实训总结
简介:好文档下载网小编为你整理了多篇相关的《营销沙盘实训总结》,但愿对你工作学习有帮助,当然你在好文档下载网还可以找到更多《营销沙盘实训总结》。营销沙盘实训总结(通用24篇)  虽然沙盘实训是经管人必经的锻炼,事先做好了准备
大伟分析|SEO优化排名怎样做会提升名次?
  通常在SEO优化过程中,每个阶段都有每个阶段的侧重点,着重点不同导致每个阶段的优化策略会有所偏重。你在某个阶段去着重优化这个网站最需要的那一块,这个时候所带来的效果远远比你一直重复的去优化某项操作所带来的效果要好得多。 
青年最关注的改变未来十大变革科技
时代呼唤创新创新引领未来近日清华大学探臻科技评论社2024“青年最关注的改变未来十大变革科技”榜单正式发布!11月30日,在“青年创新未来·探臻青年科技论坛”现场,2024“青年最关注的改变未来十大变革科技”榜单评选结果发布。以下是入
高效整合建站资源策略,提升网站搭建效率
  在当今快节奏的商业环境中,企业对于建立高效、专业的网站需求日益增长。为了实现这一目标,有效整合建站资源变得尤为重要。通过合理整合各类资源,企业不仅能够提升建站效率,还能够降低成本,从而增强市场竞争力。  一、明确建站目
超真实美女写真生成!揭秘AI绘画新工具,你也能轻松制作!
限时免费,点击体验最近超火的AI生图神器,坐拥3000美女的大男主就是你! https://ai.sohu.com/pc/generate/textToImg?_trans_=030001_yljdaimn 在这个数字化飞速发展的时代,大家都想在社交平台上展现最美的一面。是否曾经幻想过,自己的
【网信反诈】退款就退款,凡事让你操作“复杂命令”才能退款的,都是诈骗
在当今数字化的时代,网络购物、在线服务等已经成为我们生活中不可或缺的一部分。然而,随着这些便捷方式的普及,诈骗分子也在不断寻找机会,利用各种手段骗取我们的钱财。其中,以“退款”为幌子,要求受害者操作“复杂命令”的诈骗手段尤
智能老人手机排行榜10强:最适合长辈的手机排名,第一名简单易用
智能老人手机不仅要具备易用性和实用性,还要在功能上满足老年人的特定需求,如大字体、简化操作、长续航等。本文将介绍智能老人手机品牌排行榜前10名,详细分析每个品牌及其旗舰款型号,帮助您为家中老人选择最合适的手机。1. 荣耀(Honor
相关文章
推荐文章
发表评论
0评