帮助 本站公告
您现在所在的位置:网站首页 > 知识中心 > 文献详情
文献详细Journal detailed

用于不平衡分类问题的自适应加权极限学习机研究

导  师: 黄哲学

授予学位: 硕士

作  者: ();

机构地区: 深圳大学

摘  要: 极限学习机是由新加坡南洋理工大学Huang等人于2006年提出,它是一种单隐层前馈型神经网络(SLFNs)学习算法。这种算法在学习过程中不需要调整网络的输入权值和隐藏层神经元的偏置,只需要设置隐藏层神经元节点的个数。通过使用最小二乘法产生唯一的最优解,极大的提高了SLFNs网络的训练速度,同时在某种程度上降低了过拟合的概率。但是,它依然受到数据分布不平衡的影响。2013年Zong等人在ELM基础上采用加权的方式提出加权极限学习机(WELM)算法,将ELM算法很好的应用在不平衡数据集之上。但是WELM的加权机制是固定的,对于二分类问题,多数类A的样本总数为sumA,少数类B的样本总数为sumB,它选择给A类样本添加1/sumA的权重值,给B类样本添加1/sumB的权重值,这种方式显然不是最优解。本文从三个方面展开工作:第一,探讨了隐含层输出权重对极限学习机处理非平衡分类问题的影响。为了直观的了解非平衡数据集是如何影响极限学习机性能,我们在多个数据集上,通过逐步增加数据集的不平衡比,从试验中发现,极限学习机正是在数据集平衡时取得最优性能,数据的不平衡度对极限学习机的分类效果有着直接的影响。第二,提出了一种新的自适应式隐含层输出加权策略用以改进加权极限学习机的预测表现。加权极限学习机能够有效的提升极限学习机在不平衡数据集上的分类性能,但是其加权机制过于武断。本文从减小错分样本对分类器的影响入手,提出了自适应加权极速学习机(SawELM),全新设计了计算输出层权重的机制。该机制包括以下两个模块:1.逐步减小错分训练样本的权重2.动态更新错分样本的输出层的值。SawELM的第一个模块减少了错误分类样本在计算输出层权重的影响,第二个模块告知SawELM去调整输出层的权值。对WELM分类错误的样本,一方面,在计算输出层�

关 键 词: 不平衡数据 分类 不平衡分类 极限学习机 加权极限学习机

领  域: []

相关作者

作者 王和勇
作者 林志鹏
作者 贾雪燕
作者 容美平
作者 舒辉

相关机构对象

机构 暨南大学
机构 华南理工大学
机构 华南理工大学工商管理学院
机构 广东外语外贸大学社会科学系
机构 暨南大学经济学院

相关领域作者