Serendipity's Blog
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于
  • 友链
[Probabilistic Machine Learning]: Fundamentals-Optimization

[Probabilistic Machine Learning]: Fundamentals-Optimization

优化问题通常可以表示为: \[\theta^* \in \arg\min_{\theta \in \Theta} L(\theta)\] 其中,\(\theta^*\)是优化得到的参数,\(\Theta\)是参数空间,可以是任意维度的实数集合,而\(L(\theta)\)是目标函数或损失函数,它衡量了参数与某种目标之间的距离。 凸优化问题的局部最优解即是全局最优解,而非凸问题可能有多个局部
2024-10-29
Probabilistic Machine Learning
#机器学习 #概率论与数理统计 #优化方法
[Probabilistic Machine Learning]: Fundamentals-Information theory

[Probabilistic Machine Learning]: Fundamentals-Information theory

一、KL散度 机器学习本质上是对信息的处理,其中一个关键就在于如何衡量从一个信息的分布到另一个信息分布的差别与变化。KL 散度(Kullback-Leibler Divergence)作为衡量分布差异的最经典函数,其定义为: 离散情况: \[D_{KL}(p \| q) \equiv \sum_{k=1}^{K} p_k \log \frac{p_k}{q_k}\] 连续情况
2024-10-24
Probabilistic Machine Learning
#机器学习 #概率论与数理统计 #信息论
[Probabilistic Machine Learning]: Fundamentals-Graphical models

[Probabilistic Machine Learning]: Fundamentals-Graphical models

概率图是随机变量集合的一种表现形式。在概率图中,节点代表随机变量,边的有无则表示这些变量之间的条件独立性假设。所以,称为“独立性图”似乎更为合适。根据图的不同类型,概率图模型可以分为有向图、无向图或有向无向混合图的模型。 一、有向图模型(贝叶斯网络) 基于有向无环图(DAGs)的有向概率图模型(DPGM)通常被称为贝叶斯网络(Bayes nets)。不过这里的“贝叶斯”其实只是定义概率分布的
2024-10-20
Probabilistic Machine Learning
#机器学习 #概率论与数理统计
[Probabilistic Machine Learning]: Fundamentals-Statistics

[Probabilistic Machine Learning]: Fundamentals-Statistics

本学习笔记用于记录我学习Probabilistic Machine Learning的学习笔记,分享记录,也便于自己实时查看。 前面Probability部分重点是关注给定参数$\theta$后,数据$D$的分布,即$P(D|\theta)$,而Statistics部分则是关注给定数据分布下,参数$\theta$的概率,即$P(\theta|D)$。 一、贝叶斯统计 贝叶斯统计也是比较熟悉了,主要
2024-10-14
Probabilistic Machine Learning
#机器学习 #概率论与数理统计
[旅游日志] :青甘大环线

[旅游日志] :青甘大环线

2024年的国庆假期,笔者忙完了保研,于是和高中同学一起去青甘大环线进行了7天的自驾游,在这记录保存一下笔者看到的祖国大西北的美景。 青海湖 大环线的第一站,青海湖比我想象中大很多,可惜景点只有一小部分。 茶卡盐湖 第二站去的茶卡盐湖,说是中国的天空之镜,可惜去的是晚上,没有欣赏到。btw,去茶卡盐湖一定要买小火车,笔者走了好久但还是没走到终点。 水上雅丹
2024-10-09
生活blog > 旅行日志
#旅行日志
[Probabilistic Machine Learning]: Fundamentals-Probability

[Probabilistic Machine Learning]: Fundamentals-Probability

本学习笔记用于记录我学习Probabilistic Machine Learning的学习笔记,分享记录,也便于自己实时查看。 一、Probability基础知识 1. Probability space 概率空间是一个三元组$(Ω,F,P)$,其中$Ω$是样本空间,是实验可能结果的集合;$F$是事件空间,它是$Ω$所有可能子集的集合;$P$是概率函数,它是从事件$E \subsetΩ$到$[0,
2024-10-08
Probabilistic Machine Learning
#机器学习 #概率论与数理统计

更新说明 2024.9.30

国庆假期到了,这学期课程压力比较小,所以也是能为以后的科研学习一下相关知识。但国庆假期还是给自己放了一个大长假,这段时间估计是不太会更新了。 Stanford CS236 最近Stanford CS236课程也算是看完了,后面可能还会有一些内容打算写一写吧。主要还是围绕diffusion,包括 ldm diffusion的condition控制 如何把diffusion用于离散的数据 前面的文
2024-09-30
更新日志
#更新日志
Diffusion Model原理

Diffusion Model原理

本学习笔记用于记录我学习Stanford CS236课程的学习笔记,分享记录,也便于自己实时查看。 引入 前面的课程中我们已经学习了许多生成模型的架构,例如VAEs,Score Based Models等。在课程的最后也是总算来到当前最火的生成模型架构:Diffusion Model。其实Diffusion Model与前面模型或多或少都有一定的联系,我们也可以从不同的视角来理解它。
2024-09-29
Stanford CS236深度生成模型
#生成模型
Score Based Models

Score Based Models

本学习笔记用于记录我学习Stanford CS236课程的学习笔记,分享记录,也便于自己实时查看。 引入 Score function 上一次我们学习了Energy Based Model。其核心做法是对一个数据集\({x_{1}, x_{2}, ..., x_{N}}\),我们把数据的概率分布\(p(x)\)建模为: \[p_{\theta}(\mathbf{x}) = \frac
2024-09-24
Stanford CS236深度生成模型
#生成模型
Energy Based Models

Energy Based Models

本学习笔记用于记录我学习Stanford CS236课程的学习笔记,分享记录,也便于自己实时查看。 引入 生成模型的核心目标是对目标样本的概率分布进行预测。而对于一个概率密度函数 \(P(x)\) ,它只需要满足下面两个条件: 非负, \(P(x)\) 在任何一个点都不能小于0,这很显然。 积分为1, \(P(x)\) 从负无穷积分到正无穷得是1。 其中对于第二点,如果
2024-09-20
Stanford CS236深度生成模型
#生成模型
12

搜索

Hexo Fluid