SPSS Modeler 集成学习算法之同质集成(第十五章)
前面小编和大家一起学习了若干分类器,一般情况下,我们在训练集上构建单个分类器解决问题。而对于集成学习算法,可以组合若干个基分类器,从而提升分类器的预测性能。通俗说,就是三个臭皮匠赛过诸葛亮。
如果基分类器的数量趋于无穷多,那么集成分类器的错误率是否会等于0呢?
不会,因为集成分类器错误率趋于0需要达到以下条件:
(1)基分类器的错误率要低于0.5%;
(2)基分类器之间相互独立。
一般的,我们是基于同一数据集进行分类器的训练,很难满足分类器间相互独立的条件。在实际中,只能尽量保证分类器之间不存在强相关的情况。当所有基分类器完全相关时,组合分类器的性能不会有任何改善。
同质集成:指所有基分类器都是由同一种算法所产生的。
同质集成学习方法:Bagging,Boosting,随机森林。
一、Bagging
Boostrap AGGregatING,也称为袋装法,是最为经典的并行集成算法。
1.1 过程:对原始训练数据集进行有放回的重复抽样达到目的。
1.2 结果输出:
① 分类任务:少数服从多数的原则集成多个分类器结果。(出现平票情况,可以利用准确率进行分类器加权或直接从平票结果中随机选择一个)
② 回归任务:对多个分类器的预测值求平均作为最终的预测结果。
1.3 步骤:分类任务为例
(1)输入:
包含n个样本的训练数据集D;
基分类器算法f;
设定基分类器构建个数N。
(2)for i in 1:N do。
(3)从初始数据集D中有放回的抽取n个样本,生成自助训练集Di。
(4)基于训练集Di,训练获得基分类器fi。
(5)end for 。
(6)输出。
各个基分类器是独立生成的,因此可以使用并行的方法提高效率。Bagging算法主要用于降低方差,同时对噪声样本具有较强的抗干扰能力,因此能够减少模型过拟合的风险。
SPSS Modeler中,Bagging作为提高模型稳定性的选项。
二、Boosting
最为经典的串行集成算法。
2.1 过程:下一个分类器将根据上一个分类器的预测结果对样本的权重进行调整,对于错判样本将给予更大的权重,从而使得新的分类器更加关注错误样本的预测。
2.2 步骤:分类任务为例,AdaBoost算法
(1)输入:
包含n个样本的训练数据集D;
基分类器算法f;
设定基分类器构建个数N。
(2)初始化样本权重w1。
(3)for i in 1:N do。
(4)从初始数据集D中基于样本权重wi有放回的抽取n个样本,生成训练集Di。
(5)基于训练集Di,训练获得基分类器fi。
(6)计算基分类器fi的加权误差zi。
(7)if zi >0.5 then。
(8)重新初始化样本权重wi。
(9)返回步骤(4)。
(10)end if。
(11)计算分类器权重。
(12)更新下一轮的抽样权重。
(13)end for。
(14)输出。
Boosting算法主要用于降低偏差,通过对错分样本赋予“更高”的权重,Boosting能够通过集成实现更高的准确度。由于其对异常点更加敏感,因此在某些情况下更容易出现过拟合的情况。
SPSS Modeler中,Bagging作为模型准确性的选项。
三、随机森林
如果决策树的最终输出是一棵树,那么随机森林的最终输出就是一片森林。
在Modeler中,随机森林的基分类器是CART算法。
过程:
实际上,随机森林方法将在Bagging算法上更进一步,首先随机森林算法采取与Bagging同样的测量生成N个不同的自助训练数据集。接着,对每个自助训练数据集,在树生长的过程中将引入随机因素。
决策树:在所有的m个属性变量中选择最优变量。
随机森林:先从m个属性变量中随机选择d(d≤m)个变量生成变量子集V,再在变量子集V中选择最优的划分变量。一般地,子集的个数可以选择d=log2 m +1。d越小,各个基分类器的关联性就越低,当d=1时,意味着每个节点都是采用随机方式进行选择。
袋外样本:OOB,out of bag,由于采用重采样生成自助样本集,则某些样本可能没有被选入,这些没有被选入的样本称为袋外样本。
可以使用袋外样本作为验证集及测试集,无须事先对数据集进行划分。
SPSS Modeler的“随机树”节点中,预测准确性就是袋外估计的预测结果。
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!