type
status
date
slug
summary
tags
category
icon
password
URL
Rating
前几天看 Andrew Ng 讲 EM 算法的视频,又温习了一遍这玩意。
EM (Expectation Maximization) 的想法其实也比较简单。我要最大化似然函数(或者后验概率),但是直接最大化很难。
所以,我找一个似然函数的近似函数,这个近似函数小于等于似然函数,而且局部上充分逼近似然函数(保证至少在某个点两个函数有相同的函数值),而且这个函数比较容易最大化。
要找到一个全局逼近原来似然函数的简单函数(简单是说容易找其最大值点)显然非常不容易。EM 本身是迭代找解的,它的解决方法是找局部近似函数。在初始化模型参数后,EM 首先获得一个在此初始参数附近很逼近似然函数的简单函数,然后找此简单函数的最大化值点,而后模型参数更新到找到的最大化值点;之后我们又获得一个新的简单函数,它在新的参数值附近很逼近似然函数,而后就又找此简单函数的最大化值点;如此循环下去……
所以简单说,EM 就是一个找局部近似函数,而后找此近似函数的最大化值点的迭代过程。
EM 算法推导过程
EM 算法推导过程
<ins/>
机器学习里需要知道的12堂课知识星球
Loading...
Breezedeus
Breezedeus
Breezedeus
最新发布
ShowUI:当前最好的 UI Agent 开源模型?
2025-3-22
GUI Agents(智能体)最新论文
2025-3-22
UI-TARS:利用长期记忆和反思调整不断优化
2025-3-19
GUI Agents(智能体)技术综述
2025-3-11
GUI Agent 中使用 RL 提升模型泛化能力
2025-3-6
Aguvis:提升的不仅是 UI Agent 的规划推理能力
2025-2-23
公告
🎉Pix2Text V1.1.1 新版发布🎉
-- 新版本特性 ---
V1.1.1 发布,带来全新的数学公式检测(MFD)模型