蒙特卡洛采样方法 最近在学习Stanford CS236课程,里面多次提到了蒙特卡洛采样,但本人之前并没有系统地对蒙特卡洛采样进行过整理学习,所以也就正好趁此机会学习一下蒙特卡洛采样,分享记录,也便于自己实时查看。 蒙特卡洛估计 蒙特卡洛估计的原理 蒙特卡洛估计(Monte Carlo Estimator)的原理很简单,假设现在我们要求解一个一维的积分 \(\int_{a}^{b} g(x) dx\) 。 2024-09-19 机器学习 #机器学习 #概率论与数理统计
GANs 本学习笔记用于记录我学习Stanford CS236课程的学习笔记,分享记录,也便于自己实时查看。 引入 前面我们学习了VAEs和Normalizing Flows,这两种模型都是基于最小化KL散度(对似然进行评估)来进行优化的。我们也可以看到,为了进行生成,我们往往会定义一个潜变量\(z\),所以对似然进行评估并不容易。VAEs是通过优化似然的下限ELBO来绕过这个问题,而Normali 2024-09-18 Stanford CS236深度生成模型 #生成模型
Normalizing Flows 本学习笔记用于记录我学习Stanford CS236课程的学习笔记,分享记录,也便于自己实时查看。 引入 生成模型模型的目的是让得到的数据分布\(P_{\theta}\)与真实的数据分布\(P_{data}\)相同,也就是需要通过给定的样本来建模对应的分布,使得输入经过该模型后可以生成与给定样本类似的新样本。在这种意义下,评估的最佳方式便是使用极大似然估计,然而VAEs的做法导致计算似然十分 2024-09-17 Stanford CS236深度生成模型 #生成模型
VAEs 本学习笔记用于记录我学习Stanford CS236课程的学习笔记,分享记录,也便于自己实时查看。 潜变量 对于生成模型,我们可以试图寻找一组潜变量z,这个潜变量可以有具体含义,例如对于人脸生成模型的眼睛,鼻子,嘴巴等。通过修改这些潜变量我们可以得到不同风格的生成对象。但是对于图片或者自然语言而言,人为指定这种潜变量极为困难。 所以我们可以并不人为指定潜变量的含义,例如无监督学习的GMM( 2024-09-13 Stanford CS236深度生成模型 #生成模型