机构地区: 惠州学院计算机科学系
出 处: 《计算机系统应用》 2012年第7期215-218,共4页
摘 要: 降维在机器学习中起着至关重要的作用。而降维的方法主要有两类:特征选择和特征提取。离散度方法是特征选择中常用的一种方法,通过计算每个特征的离散度来选择特征,被选择的特征一般都具有较高的离散度值。但是离散度的计算没有考虑到特征间的相互影响。通过改进离散度的计算,不单考虑到类间相同特征对离散度的影响,还考虑到不同特征之间的离散度影响。在UCI数据集上的实验证明,改进离散度的特征选择具有较好的性能。 Dimension reduction is important in machine learning.The two methods of dimension reduction are feature extraction and feature selection.Scatter degree is one of the feature selection methods which attribute a degree of scattering for each feature.Features are selected that have higher scatter degree.In this paper,classification error has been reduced by considering other aspects in computing scatter degree.Experiments on UCI dataset show that improved scatter degree have a good performance on feature selection.
关 键 词: 特征选择 机器学习 离散度 模式分类 特征提取
领 域: [自动化与计算机技术] [自动化与计算机技术]