<?xml version="1.0" encoding="utf-8" ?><rss version="2.0"><channel><title><![CDATA[stevensmh的博客]]></title><description><![CDATA[]]></description><link>https://blog.csdn.net/stevensmh</link><language>zh-cn</language><generator>https://blog.csdn.net/</generator><copyright><![CDATA[Copyright &copy; stevensmh]]></copyright><item><title><![CDATA[扩散模型从原理到实践-第四周]]></title><link>https://blog.csdn.net/stevensmh/article/details/134286520</link><guid>https://blog.csdn.net/stevensmh/article/details/134286520</guid><author>stevensmh</author><pubDate>Wed, 08 Nov 2023 15:33:43 +0800</pubDate><description><![CDATA[DDIM Inversion每一步都会产生误差，对于无条件扩散模型，累积误差可以忽略。但是对基于classifier-free guidance（w >1）的扩散模型，累积误差会不断增加，DDIM Inversion最终获得的噪声向量可能会偏离高斯分布，再经过DDIM采样，最终生成的图像会严重偏离原图像，并可能产生视觉伪影。]]></description><category></category></item><item><title><![CDATA[扩散模型从原理到实践-第三周]]></title><link>https://blog.csdn.net/stevensmh/article/details/134188252</link><guid>https://blog.csdn.net/stevensmh/article/details/134188252</guid><author>stevensmh</author><pubDate>Thu, 02 Nov 2023 21:41:34 +0800</pubDate><description><![CDATA[任务三：Stable Diffusion原理与实战打卡内容：学习笔记作业：自行组装stable diffusion 并提交几个生成结果当我们处理的图像尺寸增大时，需要的计算能力也随之增加。特别是在执行一种叫做“自注意力”的操作时，所需的计算量会随着输入数量的增加而平方级增长。例如，一个128像素的正方形图像比64像素的正方形图像有4倍多的像素点，因此在自注意力层中它需要16倍（即4的平方）的内存和计算能力。对于希望生成高分辨率图像的人来说，这是一个大问题！潜在扩散技术通过使用一个名为变分自编码器（VAE）的]]></description><category></category></item><item><title><![CDATA[扩散模型从原理到实践-第二周]]></title><link>https://blog.csdn.net/stevensmh/article/details/134079500</link><guid>https://blog.csdn.net/stevensmh/article/details/134079500</guid><author>stevensmh</author><pubDate>Fri, 27 Oct 2023 21:18:16 +0800</pubDate><description><![CDATA[主要讨论了如何调整和引导现有的扩散模型。]]></description><category></category></item><item><title><![CDATA[扩散模型从原理到实践-第一周]]></title><link>https://blog.csdn.net/stevensmh/article/details/133953350</link><guid>https://blog.csdn.net/stevensmh/article/details/133953350</guid><author>stevensmh</author><pubDate>Fri, 20 Oct 2023 20:58:21 +0800</pubDate><description><![CDATA[生成模型在深度学习中，⽣成模型的⽬标是根据给定的样本（训练数据）⽣成新样本。⾸先给定⼀批训练数据X，假设其服从某种复杂的真实分布p(x)，则给定的训练数据可视为从该分布中采样的观测样本x。如果能够从这些观测样本中估计出训练数据的真实分布，不就可以从该分布中源源不断地采样出新的样本了吗？⽣成模型实际上就是这么做的，它的作⽤是估计训练数据的真实分布，并将其假定为q(x)。在深度学习中，这个过程称为拟合⽹络。那么问题来了，怎么才能知道估计的分布q(x)和真实分布p(x)的差距⼤不⼤呢？]]></description><category></category></item></channel></rss>