首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
以下哪一个模型是用EM算法优化的?
[不定项选择题]
以下哪一个模型是用EM算法优化的?
Kmeans
HMM
GMM
DBSCAN
查看答案及解析
添加笔记
求解答(0)
邀请回答
收藏(9)
分享
纠错
1个回答
添加回答
0
urnotbulbul
说HMM和GMM用EM算法优化,核心原因是:这两个模型都存在“不可观测的隐变量”(如HMM的状态、GMM的样本所属簇),导致其似然函数无法直接用梯度下降等方法最大化,而EM算法正是为“含隐变量的概率模型”设计的高效优化工具。 一、为什么HMM和GMM依赖EM算法? 1. 高斯混合模型(GMM) GMM假设数据由多个高斯分布混合生成,但每个样本具体来自哪个高斯分布(即“簇归属”)是隐变量。 - 直接最大化“观测数据的对数似然”时,因隐变量存在,似然函数会包含“求和嵌套对数”(难以直接求导); - EM算法通过两步迭代解决: - E步:计算每个样本属于各高斯分布的“后验概率(隶属度)”,将隐变量转化为“可观测的概率值”; - M步:基于E步得到的隶属度,更新每个高斯分布的参数(均值、协方差、权重),最大化“期望对数似然”。 2. 隐马尔可夫模型(HMM) HMM用于时序数据,核心是状态序列(如语音的音素状态、文本的语义状态)是隐变量,仅能观测到“状态对应的输出(如语音信号、文字)”。 - 当优化HMM的三大参数(初始状态概率、状态转移概率、观测概率)时,观测数据的似然函数因隐状态序列的存在而无法直接展开; - EM算法(在HMM中常称为“Baum-Welch算法”)通过两步迭代: - E步:用前向-后向算法计算“任意时刻处于某状态的概率”“任意时刻从状态i转移到j的概率”,将隐状态的信息转化为概率统计量; - M步:基于E步的统计量,更新HMM的三大参数,最大化“观测数据的期望对数似然”。
发表于 2025-08-31 18:10:42
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
机器学习
难度:
1条回答
9收藏
45浏览
热门推荐
相关试题
对于logistic regess...
百度
数理统计
机器学习
评论
(2)
请写出贝叶斯公式,请描述朴素贝叶斯...
百度
数理统计
机器学习
评论
(3)
如何判定训练出的模型过拟合?
百度
机器学习
评论
(6)
连接查询是MySQL数据库中最主要...
SQL
评论
(1)
脑机接口反馈系统中,大模型将“辣度...
大模型概念
评论
(1)
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题