下载此文档

一种基于分布式计算的Adaboost训练算法。.pdf.pdf


文档分类:IT计算机 | 页数:约3页 举报非法文档有奖
1/ 3
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/ 3 下载此文档
文档列表 文档介绍
第卷第期计算机应用与软件..
年月.
一种基于分布式计算的训练算法
贺灏贺建飙
中南大学信息科学与工程学院湖南长沙
摘要方法是一种可以将弱学习转化为强学习的方法,从理论上讲,只要有足够多的样本,足够多的特征,训练足够充
分,训练出来的分类器的错误率可以无限趋于零的。但是,正因为如此,当样本数目比较多,特征数目也很多时,训
练算法存在训练时间太长的问题。同时,在检测人脸过程中,由于大多数的检测算法采用穷举方式,当原始图片过大时,也存在检测
时间长的问题。首先将分布式计算引入训练算法当中,以提高训练速度;同时,对检测算法加以改进,用前一次检测中通过
的强分类器数目来动态决定下一次的移动步长,从而提高了检测速度。
关键词分布式训练权重检测率


,,,,
,,,
,—
.,,
.,,
,.,
.,·
..

算法基于的理论基础是:如果保证每一级强分类器对正
引言样本的检测率为,把负样本错分为正样本的的概率
为,则经过级级联后,级联判别准则的检测率
方法是一种机器学习方法,它的基本思想是基于为,负样本被分类为正样本的概率为,若设置为,
这样一个事实:直接建立一个具有高度区分能力的分类器很困为.,则经过级级联后,.,.,
难,但是找到一个具有比随机猜想好的弱分类器是相当容易的。显然,这是非常不错的分类效果。但是,也有一些自身
方法可以通过不断学习,把若干个弱分类器组合成为的弱点,首先:它的训练速度很慢,因为训练速度跟样本量和特
一个强分类器。的训练过程是一个迭代循环的过程, 征数的乘积成正比,当样本数目很大时,训练时间可能需要好几
在每一次迭代中选择出一个最好的弱分类器,这个弱分类器是天;其次:它的检测算法也比较慢,因为在检测时大多采用固定
所有弱分类器中对目前权重分布下加权分类错误率最好的一的步长在待检测窗口上移动,如果待检测窗口很大,检测就达不
个,选出这个弱分类器后,依据它的分类错误率给于该弱分类器到实时的要求。本文首先将分布式计算引入算法,从
一个恰当的判别权重,然后更新每一个训练样本的权重,对于那而显著提高的训练速度,然后又提出根据前一次待检
些分类错误的样本,加重它的权重,而对于那些分类正确的样测窗口通过的级联分类器数目来动态调整步长,达到减少无谓
本,则降低它的权重,从而可以使得在下次迭代中更加看重那些检测,从而提高检测的速度。
被分类错误的样本,从而尽量把这些分错的样本分正确。接着
进入下一个迭代过程,一直到所有选择出来的弱分类器所组成训练算法的改进
的强分类器的分类错误率达到给定的值才停止。为了提高对目
标的检测速度,后来又提出了级联算法。级联由于训练时每选择一个特征需要遍历所有训练样
算法的主要思想是:如果一个样本没有通过目前的强分类器,则本的所有特征值,所以训练出一个弱分类器的时间与
认为它一定就是负样本,从而结束判别;如果样本通过了目前的样本数目与特征数目的乘积成正比例关系,可设在个训练样
强分类器,则只能说明它有可能是正样本,还需要用接下来的强本,每个样本有个特征下选择一个弱分类器的时间为:
分类器去验证。这样,当检测时,大部分的负样本就可以被前面
几级强分类

一种基于分布式计算的Adaboost训练算法。.pdf 来自淘豆网www.taodocs.com转载请标明出处.

非法内容举报中心
文档信息
  • 页数 3
  • 收藏数 0 收藏
  • 顶次数 0
  • 上传人 学习一点
  • 文件大小 0 KB
  • 时间2015-03-17
最近更新