《Deep Learning Series》
  • 深耕系列之深度学习笔记
  • 第一章 Linux学习环境相关配置
    • 1.1 Ubuntu18下有道词典的配置
    • 1.2 Ubuntu18 安装Gitbook
    • 1.3 Ubuntu18 git命令使用总结
    • 1.4 Latex 排版使用笔记
    • 1.5 Ubuntu下常用工具软件配置安装
    • 1.6 win10+ubuntu双系统修复ubuntu启动引导
    • 1.7 gitbook 插件等相关设置
    • 1.8 深度学习环境搭建
    • 1.9 hexo 实现本地图片加载
    • 1.10 hexo网页定制
    • 1.11 sublime text3插件介绍
    • 1.12 vsftpd.conf文件配置
    • 1.13 mysql 笔记
    • 1.14 ubuntu16_18安装peek工具录制gif
    • 1.15 ubuntu下goldendict有道爬虫小程序
    • 1.16 ubuntu18升级后部分应用不能中文输入的问题
    • 1.17 ubuntu下安装有道词典
    • 1.18 opencv 安装
    • 1.19 gym_gazabe安装配置
    • 1.20 docker 基础
    • 1.21 docker_配置权限问题
    • 1.22 jupyternotebook使用
  • 第二章 深度学习相关基础算法
    • 2.1 马尔科夫链
      • 2.1.1 马尔科夫简单模型预测实战笔记
      • 2.1.2 最大熵模型
      • 2.1.3 隐马尔科夫HMM
    • 2.2 矩阵相关基础知识
    • 2.3 线性回归
    • 2.4 决策树
    • 2.5 梯度下降和最小二乘法
    • 2.6 递归算法与迭代算法
    • 2.7 神经网络浅学笔记
    • 2.8 强化学习经验回放
    • 2.9 K近邻算法
    • 2.10 朴素贝叶斯法
    • 2.11 极大似然估计
    • 2.12 logistic regression
  • 第三章 深度学习框架学习
    • 3.1 PyTorch 学习
      • 3.1.2 Pytorch 之MNIST手写字识别分类
    • 3.2 tensorflow学习笔记
      • 3.2.1 tensorflow之MNIST
    • 3.3 matplotlib函数
    • 3.4 numpy函数
  • 第四章 ROS机器人
    • ROS室内仿真环境.md
    • ros and gazebo and gym_gazebo安装
    • ubuntu16 安装gym-gazebo
    • gym-gazebo安装后的测试
    • 基于DQN的gym_gazebo运行代码演示
  • 项目开发
    • Library占座小工具使用手册
  • 附录
    • Python 相关笔记
      • Python 帮助文档检索方法
      • Module篇使用future
    • Git 相关配置
      • git-推送新的文章到github其他分支上
      • gitignre 配置
      • gitignre 配置
      • Hexo 每次写好后deploy博客
      • MFC Socket 通信
      • python之tkinter入坑Pack
      • ubuntu 中安装sublime_text3
      • ubuntu18-正确-安装ShadowSocket
      • vultr+freenom实现主机域名的绑定.md
      • 值得收藏的网站
      • 搜索技巧
      • 第一篇博文
      • 简单的方法,越过付费获取在线的log设计.md
      • 网页设计基础笔记.md
      • 解决Chrome67版本以后不能离线安装插件的情况.md
    • 嵌入式相关笔记
      • STM32串口通信配置
      • STM32复位及通过函数判断是何种条件出发的复位
Powered by GitBook
On this page
  • 摘要
  • HMM(隐马尔可夫模型)
  • 一、贝叶斯公式

Was this helpful?

  1. 第二章 深度学习相关基础算法
  2. 2.1 马尔科夫链

2.1.3 隐马尔科夫HMM

Previous2.1.2 最大熵模型Next2.2 矩阵相关基础知识

Last updated 5 years ago

Was this helpful?

摘要

本篇文章笔记总结来自网络和书本,引用部分都有来源,内容主要介绍隐马尔科夫HMM相关实际应用搞得入门例子,很简单,但是能说明隐马尔科夫HMM的原理相关。

文章同步于:

HMM(隐马尔可夫模型)

隐马尔可夫模型是一种统计模型,用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别。

是在被建模的系统被认为是一个马尔可夫过程与未观测到的(隐藏的)的状态的统计马尔可夫模型。

本文简述的是离散情况下的隐马尔可夫模型.

一、贝叶斯公式

定义:假设以硬币的例子,从5角和1元的一堆硬币中,随意取出一枚硬币,然后然我们猜这枚硬币是5角还是1元。假设允许我们称这枚硬币的重量x(单位:g),(但是不允许我们直接看硬币,一般1元是比5角重的)。现在应考察在一直这枚硬币的重量x的情况下硬币属于各类(5角还是一元)的概率,分别记P(ω1∣x)P(\omega_{1}|x)P(ω1​∣x),(知重量为x时,是5角的概率),P(ω2∣x)P(\omega_{2}|x)P(ω2​∣x), (知重量为x时,是一元的概率),这种概率成为后验概率(我们需要求的)。这时的决策为:如果P(ω1∣x)>P(ω2∣x)P(\omega_{1}|x)>P(\omega_{2}|x)P(ω1​∣x)>P(ω2​∣x),则xϵω1x \epsilon \omega_{1}xϵω1​; 反之,则xϵω2x \epsilon \omega_{2}xϵω2​

  • 最终我们要的就是这个决策。

概率论中的贝叶斯公式:

P(ωi∣x)=p(x,ωi)p(ωi)=p∣ωiP(ωi)p(x),i=1,2P(\omega_{i}|x)=\frac{p(x,\omega_{i})}{p(\omega_{i})}=\frac{p|\omega_{i}P(\omega_{i})}{p(x)} ,i=1,2P(ωi​∣x)=p(ωi​)p(x,ωi​)​=p(x)p∣ωi​P(ωi​)​,i=1,2

分布

表示

类条件概率:

后验概率:

在重量为x,的条件下,得到是哪种硬币(5/1)的概率

先验概率:

根据之前的经验,得到5角和1元各自取得的概率

硬币重量概率密度函数:

硬币重量的概率密度函数

联合概率密度:

在重量不同条件下,每种情况对应的取得不同硬币结果的联合概率

P(Qi∣O)=P(O,Qi)P(O)=P(O∣Qi)P(Q)P(O)P(Q_{i}|O)=\frac{P(O,Q_{i})}{P(O)}=\frac{P(O|Q_{i})P(Q)}{P(O)}P(Qi​∣O)=P(O)P(O,Qi​)​=P(O)P(O∣Qi​)P(Q)​
P(Qi∣O)=P(O,Qi)P(O)=P(O∣Qi)P(Q)P(O)P(Q_{i}|O)=\frac{P(O,Q_{i})}{P(O)}=\frac{P(O|Q_{i})P(Q)}{P(O)}P(Qi​∣O)=P(O)P(O,Qi​)​=P(O)P(O∣Qi​)P(Q)​

P(Qi∣O)P(Q_{i}|O)P(Qi​∣O) ,后验概率,P(O,Qi)P(O,Q_{i})P(O,Qi​) ,表示O与Q的联合概率密度;P(O)表示两类所有的概率密度; P(Q{i})是先验概率;$$P(O|Q{i})$$是第i类状态随机序列的类条件概率密度

贝叶斯决策:在类条件概率密度和鲜艳概率已知(或可估计)的情况下,通过贝叶斯公式比较样本属于两类的后验概率,将类别决策为后验概率大的一类,这样做的目的是为了使总体错误率最小。

一条隐藏的马尔可夫链生成的 状态随机序列 (State sequence, 图中的白色节点) Q=(q1,q2,.....,qT)Q=(q_{1},q_{2},.....,q_{T})Q=(q1​,q2​,.....,qT​)是不可观测的,并记所有可能状态的集合为S=S1,S2,.....,SNS={S_{1},S_{2},.....,S_{N}}S=S1​,S2​,.....,SN​;由它们产生一个可观测的观测随机序列(observation sequence,图示的深色节点)O=(o1,o2,......,oT)O=(o_{1},o_{2},......,o_{T})O=(o1​,o2​,......,oT​), 并记所有可能观测的集合为V=v1,v2,......,vMV={v_{1},v_{2},......,v_{M}}V=v1​,v2​,......,vM​。

序列的值可以看作是随时刻产生的,每个时刻对应着序列的一个值。所以HMM是个双重随机过程(doubly embedded stochastic process),一个是状态转移,另一个是由状态释放出观测值。在序列标注(Sequence labelling)任务中,模型就是需要对状态序列进行标注。

表示得到硬币结果是条件下,得到x的概率密度

xϵ{ω1,ω2}x \epsilon \left \{ \omega_{1},\omega_{2} \right \}xϵ{ω1​,ω2​}
p(x∣ωi)p(x\mid \omega_{i})p(x∣ωi​)
ωi\omega_{i}ωi​
P(ωi∣x)P(\omega_{i}\mid x)P(ωi​∣x)
P(ωi)P(\omega_{i})P(ωi​)
p(x)p(x)p(x)
p(x,ωi)p(x,\omega_{i})p(x,ωi​)
我的gitbook
HHM 示意图