条件控制扩散模型

条件控制扩散模型

背景

扩散模型在生成图片时,都是 输入一个随机高斯噪声数据, 然后 逐步的产出一张有意义的真实图片这个过程中每一步都是一个随机过程,所以每次执行产出的图片都不一样, 生成的图像多样性非常好。

但这也是一个缺点:生成的图像不可控,无法控制这个生成过程并令其生成我们想要的图像内容。

直觉的讲,我们可以在扩散过程中 引入额外的信息来指导整个扩散模型, 假设这个额外的信息为 y y y,它可以是一段文本、一张图片或者图像的类别标签,引入 y y y 之后的模型就变成了一个以 y y y 为条件的条件概率分布
p ( x 1 : T ∣ y , x 0 ) p(x_{1:T} | y, x_0) p(x1:Ty,x0)

自然而然地,接下来就需要探讨,引入 y y y 之后对前向扩散过程和逆向采样过程分别有什么影响,需要做出什么调整

首先看下对前向扩散过程的影响,先说结论:引入 y y y 之后,对前向扩散过程没有任何影响

其实,从直觉上讲,前向扩散过程是对原始图片加噪声,直至变成纯噪声,这个过程显然与 y y y 没有任何关系。但做研究要严谨,还是需要给出数学证明的。证明过程在论文 Dhariwal et al. (2021) 中已经给出,这里直接搬过来。

  • 首先定义带有小帽子 q ^ \hat{q} q^ 的符号表示引入 y y y 之后的条件扩散模型中的概率分布,不带小帽子的符号 q q q 表示原始(无条件)扩散模型的概率分布。在这里可以先把 y y y 理解成原始图像 x 0 x_0 x0 的类别标签(label),它是已知的,即 训练输入是 ( x 0 , y ) (x_0, y) (x0,y) 这样的数据对,类似于图像分类任务的训练样本。

  • 先考虑,单一时刻 t 的变化,扩散模型本身是一个马尔科夫链,其定义中已经明确了:任意时刻的 x t x_t xt 只和它上一个时刻的状态 x t − 1 x_{t-1} xt1 有关。因此任意单一时刻的前向扩散条件概率(加噪声)过程一定是与 y y y 无关的,即下面的式子是一定成立的。
    q ^ ( x t ∣ x t − 1 , y ) : = q ( x t ∣ x t − 1 ) \hat{q} (x_{t}|x_{t-1}, y) := q(x_{t}|x_{t-1}) q^(xtxt1,y):=q(xtxt1)

  • 基于这个事实,可以推导出另一个等式,即
    q ^ ( x t ∣ x t − 1 ) = ∫ y q ^ ( x t , y ∣ x t − 1 ) d y = ∫ y q ^ ( x t ∣ y , x t − 1 ) q ^ ( y ∣ x t − 1 ) d y = ∫ y q ( x t ∣ x t − 1 ) q ^ ( y ∣ x t − 1 ) d y = q ( x t ∣ x t − 1 ) ∫ y q ^ ( y ∣ x t − 1 ) d y ⏟ 这里积分为 1 = q ( x t ∣ x t − 1 ) = q ^ ( x t ∣ x t − 1 , y ) \begin{aligned} \hat{q}(x_{t}|x_{t-1}) &= \int_{y} \hat{q}(x_{t}, y |x_{t-1}) d y \\ &= \int_{y} \hat{q}(x_{t}|y, x_{t-1}) \hat{q}(y|x_{t-1}) d y \\ &= \int_{y} q(x_{t}|x_{t-1}) \hat{q}(y|x_{t-1}) d y \\ &= q(x_{t}|x_{t-1}) \underbrace{ \int_{y} \hat{q}(y|x_{t-1}) d y}_{\text{这里积分为} 1} \\ &= q(x_{t}|x_{t-1}) \\ &= \hat{q} (x_{t}|x_{t-1}, y) \end{aligned} q^(xtxt1)=yq^(xt,yxt1)dy=yq^(xty,xt1)q^(yxt1)dy=yq(xtxt1)q^(yxt1)dy=q(xtxt1)这里积分为1 yq^(yxt1)dy=q(xtxt1)=q^(xtxt1,y)

  • 基于相同的逻辑,可以推导出条件扩散模型中的前向扩散过程的联合概率 q ^ ( x 1 : T ∣ x 0 ) \hat{q}(x_{1:T}|x_0) q^(x1:Tx0) 和非条件(原始)扩散模型的前向扩散过程联合概率 q ( x 1 : T ∣ x 0 ) q(x_{1:T} |x_{0}) q(x1:Tx0) 是等价的。推导过程如下:
    q ^ ( x 1 : T ∣ x 0 ) = ∫ y q ^ ( x 1 : T , y ∣ x 0 ) d y = ∫ y q ^ ( y ∣ x 0 ) q ^ ( x 1 : T ∣ x 0 , y ) d y = ∫ y q ^ ( y ∣ x 0 ) ∏ t = 1 T q ^ ( x t ∣ x t − 1 , y ) d y = ∫ y q ^ ( y ∣ x 0 ) ∏ t = 1 T q ^ ( x t ∣ x t − 1 ) d y = ∏ t = 1 T q ^ ( x t ∣ x t − 1 ) ∫ y q ^ ( y ∣ x 0 ) d y ⏟ 积分为 1 = ∏ t = 1 T q ^ ( x t ∣ x t − 1 ) = q ( x 1 : T ∣ x 0 ) \begin{aligned} \hat{q}(x_{1:T} |x_{0}) &= \int_y \hat{q} (x_{1:T}, y |x_0)dy \\ &= \int_y \hat{q}(y|x_0) \hat{q} (x_{1:T}|x_0, y)dy \\ &= \int_y \hat{q}(y|x_0) \prod_{t=1}^T \hat{q} (x_t|x_{t-1}, y)dy \\ &= \int_y \hat{q}(y|x_0) \prod_{t=1}^T \hat{q} (x_t|x_{t-1})dy \\ &= \prod_{t=1}^T \hat{q} (x_t|x_{t-1}) \underbrace{\int_y \hat{q}(y|x_0) dy}_{\text{积分为} 1} \\ &= \prod_{t=1}^T \hat{q} (x_t|x_{t-1}) \\ &= q(x_{1:T} |x_{0}) \end{aligned} q^(x1:Tx0)=yq^(x1:T,yx0)dy=yq^(yx0)q^(x1:Tx0,y)dy=yq^(yx0)t=1Tq^(xtxt1,y)dy=yq^(yx0)t=1Tq^(xtxt1)dy=t=1Tq^(xtxt1)积分为1 yq^(yx0)dy=t=1Tq^(xtxt1)=q(x1:Tx0)

到这里,证明了加不加条件 y y y 对前向扩散过程没有任何影响,即:条件扩散模型的前向过程与非条件扩散模型的前向过程完全一样

接下来就该讨论条件 y y y 对逆向采样过程的影响,显然我们的目的就是要令 y y y 对采样过程产生影响。

  • 原始的无条件的扩散模型的逆向过程联合概率为:
    p ( x 0 : T ) = p ( x T ) ∏ t = 1 T p θ ( x t − 1 ∣ x t ) p(x_{0:T}) = p(x_{T}) \prod_{t=1}^T p_{\theta}(x_{t-1} | x_{t}) p(x0:T)=p(xT)t=1Tpθ(xt1xt)
    添加额外信息 y y y 之后,条件扩散模型的逆向过程联合概率为:
    p ( x 0 : T ∣ y ) = p ( x T ) ∏ t = 1 T p θ ( x t − 1 ∣ x t , y ) p(x_{0:T} | y) = p(x_{T}) \prod_{t=1}^T p_{\theta}(x_{t-1} | x_{t}, y) p(x0:Ty)=p(xT)t=1Tpθ(xt1xt,y)

扩散模型有三种解释,即参数化模型有三种预测方案,分别是:

  1. 直接预测原始的 x 0 x_0 x0 x ^ θ ( x t , t ) ≈ x 0 \hat{x}_{\theta}(x_t, t) \approx x_0 x^θ(xt,t)x0
  2. 预测噪声数据, ϵ ^ θ ( x t , t ) ≈ ϵ t \hat{\epsilon}_{\theta}(x_t, t) \approx \epsilon_t ϵ^θ(xt,t)ϵt
  3. 预测得分(梯度), s ^ θ ( x t , t ) ≈ ∇ x t log ⁡ p ( x t ) \hat{s}_{\theta}(x_t, t) \approx \nabla_{x_t} \log p(x_t) s^θ(xt,t)xtlogp(xt)

最直觉(简单)的添加条件的方式,就是和添加 t t t 一样,直接把 y y y 作为模型的输入,添加到模型中即可

上面三种方式分别改成:

  1. 直接预测原始的 x 0 x_0 x0 x ^ θ ( x t , t , y ) ≈ x 0 \hat{x}_{\theta}(x_t, t, y) \approx x_0 x^θ(xt,t,y)x0
  2. 预测噪声数据 , ϵ ^ θ ( x t , t , y ) ≈ ϵ t \hat{\epsilon}_{\theta}(x_t, t, y) \approx \epsilon_t ϵ^θ(xt,t,y)ϵt
  3. 预测得分(梯度), s ^ θ ( x t , t , y ) ≈ ∇ x t log ⁡ p ( x t ∣ y ) \hat{s}_{\theta}(x_t, t, y) \approx \nabla_{x_t} \log p(x_t | y) s^θ(xt,t,y)xtlogp(xty)

首先这么做是可以的,但效果可能并不好,以这种方式训练的条件扩散模型可能会学会忽略或淡化任何给定的条件信息 Luo et al. (2022)

接下来看看不同的 guidance 方案具体是如何做的。

在这里插入图片描述

参考:条件控制扩散模型

Classifier Guidance

原理

OpenAI 的团队在 2021 年发表一篇论文 Dhariwal et al. (2021):“A. Diffusion models beat GANs on image synthesis”,在这篇论文中,提出一种 利用图片类别标签指导图像生成 的方案,称为 classifier guidance,通过这种改进使扩散模型生成图像的质量大幅提升,并在 IS 和 FID 评分上超过了 GAN 模型,所以看论文的名字,简单直接。
论文的源码在: https://github.com/openai/guided-diffusion

实际上这篇论文做了很多改进,比如对 UNET 也做了改进。但这里只关注 guidance 部分。

原论文的推导过程比较繁杂,这里我们采用另一篇文章 Luo et al. (2022) 的推导方案,直接从 score function 的角度去理解。

如上文所述,扩散模型的降噪过程的预测模型可以从三个角度去理解,其中一种角度是参数化神经网络模型预测的是 x t x_t xt 的对数梯度,也叫得分(score),公式表示为
s ^ θ ( x t , t ) ≈ ∇ x t log ⁡ p ( x t ) \hat{s}_{\theta}(x_t,t) \approx \nabla_{x_t} \log p(x_t) s^θ(xt,t)xtlogp(xt)

引入条件信息 y y y 之后,相当于原来的 ∇ x t log ⁡ p ( x t ) \nabla_{x_t} \log p(x_t) xtlogp(xt) 变成了 ∇ x t log ⁡ p ( x t ∣ y ) \nabla_{x_t} \log p(x_t|y) xtlogp(xty),所以只要推导出 ∇ x t log ⁡ p ( x t ∣ y ) \nabla_{x_t} \log p(x_t|y) xtlogp(xty) 是什么即可,推导过程如下:
∇ x t log ⁡ p ( x t ∣ y ) = ∇ x t log ⁡ ( p ( x t ) p ( y ∣ x t ) p ( y ) ) = ∇ x t log ⁡ p ( x t ) + ∇ x t log ⁡ p ( y ∣ x t ) − ∇ x t log ⁡ p ( y ) ⏟ 与  x t  无关,为 0 = ∇ x t log ⁡ p ( x t ) ⏟ unconditional score + ∇ x t log ⁡ p ( y ∣ x t ) ⏟ adversarial gradient \begin{aligned} \nabla_{x_t} \log p(x_t|y) &= \nabla_{x_t} \log \left( \frac{p(x_t)p(y|x_t)}{p(y)} \right) \\ &= \nabla_{x_t} \log p(x_t) + \nabla_{x_t} \log p(y|x_t) - \underbrace{\nabla_{x_t} \log p(y)}_{\text{与 } x_t \text{ 无关,为 0} } \\ &= \underbrace{\nabla_{x_t} \log p(x_t)}_\text{unconditional score} + \underbrace{\nabla_{x_t} \log p(y|x_t)}_\text{adversarial gradient} \end{aligned} xtlogp(xty)=xtlog(p(y)p(xt)p(yxt))=xtlogp(xt)+xtlogp(yxt) xt 无关,为 0 xtlogp(y)=unconditional score xtlogp(xt)+adversarial gradient xtlogp(yxt)

展开后有两项,

  • 第一项 ∇ x t log ⁡ p ( x t ) \nabla_{x_t} \log p(x_t) xtlogp(xt) 就是无条件扩散模型的梯度本身,称为 无条件分数(unconditional score)
  • 第二项 ∇ x t log ⁡ p ( y ∣ x t ) \nabla_{x_t} \log p(y|x_t) xtlogp(yxt) 称为 对抗梯度(adversarial gradient)

其中 p ( y ∣ x t ) p(y|x_t) p(yxt) 显然代表一个分类器, x t x_t xt 是分类器的输入, y y y 是分类器预测的标签。

显然,条件扩散模型的分数项 ∇ x t log ⁡ p ( x t ∣ y ) \nabla_{x_t} \log p(x_t|y) xtlogp(xty) 就是在非条件扩散模型分数项 ∇ x t log ⁡ p ( x t ) \nabla_{x_t} \log p(x_t) xtlogp(xt) 的基础上加了一项分类器的对抗梯度。
condition score = unconditional score + adversarial gradient \text{condition score} = \text{unconditional score} + \text{adversarial gradient} condition score=unconditional score+adversarial gradient

分类器 p ( y ∣ x t ) p(y|x_t) p(yxt) 的输入不是初始的图像数据 x 0 x_0 x0,而是对应时刻加了噪声的 x t x_t xt

这个分类器需要在训练条件扩散模型之前,独立的训练好。当然此分类训练过程中,需要用扩散模型的前向加噪过程得到 x t x_t xt 作为分类器的输入。

在实现时,

  1. 预训练好一个噪声分类器 p ( y ∣ x t ) p(y|x_t) p(yxt)
  2. 在原来非条件扩散模型每一个时刻 t t t 的采样过程中,
    1. 把模型的预测输出 s ^ θ ( x t , t ) \hat{s}_{\theta}(x_t,t) s^θ(xt,t)
    2. 同时把 x t x_t xt 输入到预训练好的噪声分类器 p ( y ∣ x t ) p(y|x_t) p(yxt),并计算出梯度 ∇ x t log ⁡ p ( y ∣ x t ) \nabla_{x_t} \log p(y|x_t) xtlogp(yxt)
    3. 计算 s ^ θ ( x t , t , y ) = s ^ θ ( x t , t ) + ∇ x t log ⁡ p ( y ∣ x t ) \hat{s}_{\theta}(x_t,t,y) = \hat{s}_{\theta}(x_t,t) + \nabla_{x_t} \log p(y|x_t) s^θ(xt,t,y)=s^θ(xt,t)+xtlogp(yxt)
    4. 继续原来处理。

噪声分类器的对抗梯度 ∇ x t log ⁡ p ( y ∣ x t ) \nabla_{x_t} \log p(y|x_t) xtlogp(yxt) 影响着采样降噪过程,它可以是采样过程向着类别标签 y y y 的方向前进,进而得到贴近标签 y y y 的图像,比如当 y = "小狗" y=\text{"小狗"} y="小狗" 时, 就会生成有小狗的图像,并且生成的图像更加逼真。

然而引入 classifier guidance 后,虽然生成图像的质量提高了,更加逼真,但是显然它会降低多样性

为了能更灵活地控制生成内容的方向,论文中增加了一个超参数 λ \lambda λ,作为一个权重项。显然这个权重可以调节类别引导的作用大小。
∇ x t log ⁡ p ( x t ∣ y ) = ∇ x t log ⁡ p ( x t ) + λ ∇ x t log ⁡ p ( y ∣ x t ) \nabla_{x_t} \log p(x_t|y) = \nabla_{x_t} \log p(x_t) + \lambda \nabla_{x_t} \log p(y|x_t) xtlogp(xty)=xtlogp(xt)+λxtlogp(yxt)

分类指导允许在样本多样性和保真度之间进行权衡。一个关于分类器引导的美丽的二维插图,
在这里插入图片描述

虽然引入 classifier guidance 效果很明显,但缺点也很明显:

  1. 需要额外一个分类器模型,极大增加了成本,包括训练成本和采样成本。
  2. 分类器的类别毕竟是有限集,不能涵盖全部情况,对于没有覆盖的标签类别会很不友好。

后来《More Control for Free! Image Synthesis with Semantic Diffusion Guidance》推广了“Classifier”的概念,使得它也可以按图、按文来生成。

Classifier-Guidance 方案的训练成本比较低(熟悉 NLP 的读者可能还会想起与之很相似的 PPLM 模型),但是推断成本会高些,而且控制细节上通常没那么到位。

Classifier-Free Guidance

无分类器指导方法通过 联合训练条件扩散模型和无条件扩散模型,消除了训练时需要额外分类器的需求

原理

紧跟 OpenAI 之后,谷歌大脑团队发表了一篇论文 Classifier-Free Diffusion Guidance,双方战况激烈啊。Classifier-free 只需要在 classifier guidance 基础上稍微变换一下即可。

将公式 ∇ x t log ⁡ p ( x t ∣ y ) = ∇ x t log ⁡ p ( x t ) + ∇ x t log ⁡ p ( y ∣ x t ) \nabla_{x_t} \log p(x_t|y) = \nabla_{x_t} \log p(x_t) + \nabla_{x_t} \log p(y|x_t) xtlogp(xty)=xtlogp(xt)+xtlogp(yxt) 移项,得到:
∇ x t log ⁡ p ( y ∣ x t ) = ∇ x t log ⁡ p ( x t ∣ y ) − ∇ x t log ⁡ p ( x t ) \nabla_{x_t} \log p(y|x_t) = \nabla_{x_t} \log p(x_t|y) - \nabla_{x_t} \log p(x_t) xtlogp(yxt)=xtlogp(xty)xtlogp(xt)

然后将其带入 ∇ x t log ⁡ p ( x t ∣ y ) = ∇ x t log ⁡ p ( x t ) + λ ∇ x t log ⁡ p ( y ∣ x t ) \nabla_{x_t} \log p(x_t|y) = \nabla_{x_t} \log p(x_t) + \lambda \nabla_{x_t} \log p(y|x_t) xtlogp(xty)=xtlogp(xt)+λxtlogp(yxt) 中,可以推导得到:
∇ x t log ⁡ p ( x t ∣ y ) = ∇ x t log ⁡ p ( x t ) + γ ( ∇ x t log ⁡ p ( x t ∣ y ) − ∇ x t log ⁡ p ( x t ) ) = ∇ x t log ⁡ p ( x t ) + γ ∇ x t log ⁡ p ( x t ∣ y ) − γ ∇ x t log ⁡ p ( x t ) = γ ∇ x t log ⁡ p ( x t ∣ y ) ⏟ conditional score + ( 1 − γ ) ∇ x t log ⁡ p ( x t ) ⏟ unconditional score \begin{aligned} \nabla_{x_t} \log p(x_t|y) &= \nabla_{x_t} \log p(x_t) + \gamma \left(\nabla_{x_t} \log p(x_t|y) - \nabla_{x_t} \log p(x_t) \right) \\ &= \nabla_{x_t} \log p(x_t) + \gamma \nabla_{x_t} \log p(x_t|y) - \gamma \nabla_{x_t} \log p(x_t) \\ &= \underbrace{\gamma \nabla_{x_t} \log p(x_t|y)}_\text{conditional score} + \underbrace{(1 - \gamma)\nabla_{x_t} \log p(x_t)}_\text{unconditional score} \end{aligned} xtlogp(xty)=xtlogp(xt)+γ(xtlogp(xty)xtlogp(xt))=xtlogp(xt)+γxtlogp(xty)γxtlogp(xt)=conditional score γxtlogp(xty)+unconditional score (1γ)xtlogp(xt)

Classifier-free 的训练成本更大了一些,但效果更好一些。财大气粗的 OpenAI’s GLIDE、OpenAI’s DALL·E 2,以及 Google 的 Imagen 都采用了这个机制。

实战

Classifier-Free Guidance 是一种 控制扩散模型输出“更符合某个条件” 的方法,通过 同时训练有条件和无条件模型,再 在采样时进行插值 实现引导

在条件扩散模型中,我们通常希望模型生成“满足条件”的样本,比如:

  • 输入文字“猫”,生成一只猫的图像;
  • 输入初始状态 p0,生成满足物理约束的状态序列 p,其中初始状态就是 p0

原始的条件扩散方法需要一个 额外的分类器,比如 DDPM 的 Classifier Guidance 就是这么做的,但训练分类器困难、开销大。

下面是 Classifier-Free Guidance(CFG) 的核心思想,

训练阶段,让模型随机“忘记条件”,用概率 p p p 将条件设为 None

if random() < p:
    cond = None  # 无条件训练
else:
    cond = y      # 条件输入(如 label, prompt 等)

也就是说,模型学到的是:

  • 条件模型 ϵ θ ( x t , t , y ) \epsilon_\theta(x_t, t, y) ϵθ(xt,t,y)
  • 无条件模型 ϵ θ ( x t , t ) \epsilon_\theta(x_t, t) ϵθ(xt,t)

但它们是 同一个模型共享参数训练 的!只靠有无条件区分路径。

采样阶段,模型预测的噪声通过“插值”进行调整:

ϵ ^ guided = ϵ θ ( x t , t ) + w ⋅ ( ϵ θ ( x t , t , y ) − ϵ θ ( x t , t ) ) \hat{\epsilon}_{\text{guided}} = \epsilon_\theta(x_t, t) + w \cdot \left( \epsilon_\theta(x_t, t, y) - \epsilon_\theta(x_t, t) \right) ϵ^guided=ϵθ(xt,t)+w(ϵθ(xt,t,y)ϵθ(xt,t))

  • ϵ θ ( x t , t , y ) \epsilon_\theta(x_t, t, y) ϵθ(xt,t,y) 是有条件预测的噪声;
  • ϵ θ ( x t , t ) \epsilon_\theta(x_t, t) ϵθ(xt,t) 是无条件预测的噪声;
  • w w w 是 guidance scale(比如 3~10),控制引导强度。

类似于 “把输出拉向有条件结果方向”

### 跨模态条件控制扩散模型的发展趋势 跨模态条件控制扩散模型近年来取得了显著进展,特别是在多模态数据处理方面。这类模型不仅能够处理单一类型的输入(如仅限于图像或文本),还能够在不同形式的数据之间建立联系并实现联合生成。 #### 图像-文本联合生成 在图像-文本联合生成领域,研究人员探索了如何通过给定一种模态的信息来指导另一种模态的内容创建。例如,在给定一段描述性的文字时,可以利用该信息作为条件去引导图像合成过程;反之亦然,即基于一张图片自动生成相应的说明性语句[^1]。 #### Transfusion 方法的应用 Transfusion 是一项重要的技术突破,它允许在一个统一框架下同时操作离散型的文字序列与连续向量表示的视觉特征图谱。这种方法解决了以往各独立分支间难以有效沟通的问题,并促进了更自然流畅的信息交互方式[^2]。 #### 发展方向展望 未来的研究可能会更加注重以下几个方面: - **增强泛化能力**:开发具有更强适应性和鲁棒性的算法架构,使得即使面对未见过的新颖组合也能保持良好性能; - **提高效率和质量**:优化计算资源利用率的同时提升最终产物的真实度及细节表现力; - **拓展应用场景范围**:除了现有的图文配对外,进一步尝试其他可能存在的关联模式,比如视频片段与音乐旋律之间的协同创作等新型任务设定。 ```python # 示例代码展示了一个简单的多模态融合网络结构定义 class MultiModalFusion(nn.Module): def __init__(self, text_dim=768, image_dim=512): super(MultiModalFusion, self).__init__() self.fc_text = nn.Linear(text_dim, 256) self.fc_image = nn.Conv2d(image_dim, 256, kernel_size=(1, 1)) def forward(self, texts, images): h_texts = F.relu(self.fc_text(texts)) # 文本编码层 h_images = F.relu(self.fc_image(images)).mean(dim=[2, 3]) # 平均池化后的图像编码 fused_features = torch.cat([h_texts, h_images], dim=-1) # 特征拼接 return fused_features ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一杯水果茶!

谢谢你的水果茶啦~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值