下载此文档

朴素贝叶斯分类器.docx


文档分类:IT计算机 | 页数:约7页 举报非法文档有奖
1/7
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/7 下载此文档
文档列表 文档介绍
朴素贝叶斯概率模型理论上,概率模型分类器是一个条件概率模型。独立的类别变量有若干类别,条件依赖于若干特征变量,,..., 。但问题在于如果特征数量较大或者每个特征能取大量值时,基于概率模型列出概率表变得不现实。所以我们修改这个模型使之变得可行。贝叶斯定理有以下式子: 用朴素的语言可以表达为: 实际中,我们只关心分式中的分子部分,因为分母不依赖于而且特征的值是给定的,于是分母可以认为是一个常数。这样分子就等价于联合分布模型。重复使用链式法则,可将该式写成条件概率的形式,如下所示: 现在“朴素”的条件独立假设开始发挥作用:假设每个特征对于其他特征,是条件独立的。这就意味着对于,所以联合分布模型可以表达为这意味着上述假设下,类变量的条件分布可以表达为: 其中(证据因子)是一个只依赖与等的缩放因子,当特征变量的值已知时是一个常数。由于分解成所谓的类先验概率和独立概率分布,上述概率模型的可掌控性得到很大的提高。如果这是一个分类问题, 且每个可以表达为个参数,于是相应的朴素贝叶斯模型有(k?1) +nrk个参数。实际应用中,通常取(二分类问题), (伯努利分布作为特征),因此模型的参数个数为,其中是二值分类特征的个数。参数估计所有的模型参数(例如,类的先验概率和特征的概率分布)都可以通过训练集的相关频率来估计。这些方法是概率的最大似然估计。类的先验概率可以通过假设各类等概率来计算(先验概率=1/(类的数量)),或者通过训练集的各类样本出现的次数来估计( A类先验概率=(A类样本的数量) /(样本总数))。为了估计特征的分布参数,我们要先假设训练集数据满足某种分布或者非参数模型。[3]如果要处理的是连续数据一种通常的假设是这些连续数值为高斯分布。例如,假设训练集中有一个连续属性,。我们首先对数据根据类别分类,然后计算每个类别中的均值和方差。令表示为在c类上的均值,令为在c 类上的方差。在给定类中某个值的概率, ,可以通过将表示为均值为方差为正态分布计算出来。如下, 处理连续数值问题的另一种常用的技术是通过离散化连续数值的方法。通常,当训练样本数量较少或者是精确的分布已知时,通过概率分布的方法是一种更好的选择。在大量样本的情形下离散化的方法表现更优,因为大量的样本可以学****到数据的分布。由于朴素贝叶斯是一种典型的用到大量样本的方法(越大计算量的模型可以产生越高的分类精确度),所以朴素贝叶斯方法都用到离散化方法, 而不是概率分布估计的方法。样本修正如果一个给定的类和特征值在训练集中没有一起出现过,那么基于频率的估计下该概率将为 0。这将是一个问题因为与其他概率相乘时将会把其他概率的信息统统去除。所以常常要求要对每个小类样本的概率估计进行修正,以保证不会出现有为 0的概率出现。从概率模型中构造分类器讨论至此为止我们导出了独立分布特征模型,也就是朴素贝叶斯概率模型。朴素贝叶斯分类器包括了这种模型和相应的决策规则。一个普通的规则就是选出最有可能的那个:这就是大家熟知的最大后验概率(MAP )决策准则。相应的分类器便是如下定义的公式: 讨论尽管实际上独立假设常常是不准确的,但朴素贝叶斯分类器的若干特性让其在实践中能够取得令人惊奇的效果。特别地,各类条件特征之间的解耦意味着每个特征的分布都可以独立地被当做一维分布来估计。这样减轻了由于维数灾带来的阻碍,当样本的特征个数增加时就不需

朴素贝叶斯分类器 来自淘豆网www.taodocs.com转载请标明出处.

相关文档 更多>>
非法内容举报中心
文档信息
  • 页数7
  • 收藏数0 收藏
  • 顶次数0
  • 上传人phl806
  • 文件大小92 KB
  • 时间2017-02-20