机构地区: 浙江大学计算机科学与技术学院人工智能研究所
出 处: 《计算机科学》 1992年第2期64-68,共5页
摘 要: 近年来,在机器学习领域,基于解释的学习引起了广泛的兴趣。解释学习是一种演绎学习方法,根据领域理论对训练实例进行解释,经过推广后获得新的知识。从可操作性的角度看,解释学习并没有学到真正新的知识,只是一种知识转换,它把原先不可操作的概念描述转换为可操作的目标概念描述,而使系统的性能得以提高。但原来的可操作性定义并没有考虑到解释学习的效用(utility)问题,人们发现这样的解释学习并不总能提高系统的性能,而是在大多数情况下会使系统的行为比未经学习时更差。 Explanation-Based Learning(EBL)is a powerful deductive learning met- hod.But non-restricted learning wou1d deteriorate the system's performan- ce,which drives people to study on the utility of EBL.This paper starts with a definition of the utilitly,then analyzes the factors which influence the utility of a learned description and also introduces several strategies to improve the utility of EBL.
领 域: [自动化与计算机技术] [自动化与计算机技术]