Paper摘记:Multiple-Prototype Classifier Design

本文探讨了1-NP分类器,通过竞争学习模型如Kohonen规则、LVQ和GLVQ-F进行原型选择。Chang's算法用于原型合并,通过试验性和基于resubstitution error rate的迭代优化。MODIFIED CHANG ALGORITHMS (MCA’S)是算法的改进版,提高了分类效率和准确性。文章总结认为,虽然创新有限,但作为综述资料有价值。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

作者:James C. Bezdek, Fellow, IEEE, Thomas R. Reichherzer, Gek Sok Lim, and Yianni Attikiouzel, Fellow, IEEE

出处:IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS—PART C: APPLICATIONS AND REVIEWS, VOL. 28, NO. 1, FEBRUARY 1998

个人评价:总的来说,创新不多,当作综述来读不错

摘记:

1-NP 分类器(1-Nearest prototype): 通过选择(从原有点中),替换(会产生新的点)等方法,压缩原训练数据集为更小的由原型组成的数据集,然后分类时,找最近的那个原型。

寻找多个原型的方法,竞争学习模型-competitive learning(CL) model。Kohonen规则,竞争网络,LVQ(更新竞争胜利者周围的原型),GLVQ-F(最优化一个性能函数,更新所有的原型,模糊因子),deterministic DR algorithm(更新所有的原型,use intuitive arguments to establish the learning rate distribution for Kohonen规则)

Chang’s algorithm:初始时,每个训练数据都是原型,此时,resubstitution error rate(训练数据和测试数据相同的错误率)=0。然后找训练数据中,最接近的点,试验性的合并,合并后的点的值为均值(不是简单平均,要把所有双亲训练数据考虑,即要考虑直接双亲的父节点,直到追溯到原来的训练数据。当然,第一次迭代时,就是两者的简单平均)。合并是试验性的,存在下列两种情况之一,合并失败:1)合并的两个点,类标号不同 2)合并后,resubstitution error rate增加。记录下这两个不能合并的点,然后开始下一次迭代。最终,没有可以合并的点后,终止,得到的resubstitution error rate=0。可以用最小生成树算法来实现。

本文的实现-MODIFIED CHANG ALGORITHMS (MCA’S):两点不同 1)合并点只是直接父节点的平均,越早合并的点,最终的权杖会越小。这样做的好处是,计算方便些,并且使得远离cluster的点,更有可能被MCA原型分类正确。2)Chang’s algorithm计算全局的距离,MCA把每个相同类标号的样本分为一组,只计算组内的距离。因为在Chang’s algorithm中,不同标号的样本合并会失败。

 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值