分类——LDA、QDA

本文介绍了LDA(线性判别分析)和QDA(二次判别分析)这两种分类方法。LDA假设特征服从同一高斯分布,而QDA允许每个类拥有独立的协方差矩阵。LDA适用于数据量较小的情况,QDA在数据量充足时能提供更好的分类效果,但需要估计更多参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

LDA(Linear Discriminant Analysis)

  1. 模型:
    Pr(Y=k|X=x)=πkfk(x)kl=1πlfl(x)

    假设:第k类的观测值来自于多元高斯分布 N(μk,Σ)
    即:
    fk(x)=Pr(X=x|Y=y)

    f(x)=1(2π)P/2|Σ|1/2exp[12(xμ)1Σ1(xμ)]

2 . P表示特征的数量、 Σ 表示协方差矩阵
当P = 1 时: f(x) 假设为一维高斯分布, Σ 用方差 σ2 表示,则

f(x)=1(2π)1/2σexp[12σ2(xμ)2]

问题:在实际中, fk(x) 是未知的,需要通过训练集预测,LDA(P=1)假设了 fk(x) 来自于一维高斯分布

再假设 σ21=σ22=...=σ2k=σ2 ,

fk(x) 代入模型,获得取某个特定x值时,记录术语第k类的概率
即:

Pk(x)=Pr(Y=k|X=x)=πk1(2π)1/2σexp[12σ2(xμk)2]kl=1πlfl(x)

Pk(x) 最大表示取x值的记录最有可能术语类别k

取对数且化简

δk(x)=xμkσ2μ2k2σ2+log(πk)

参数估计
实际的 Pk(x) 分布并不可知,因此需要估计 μ1..μk;π1...πk;σ2
LDA采用了plugging estimates方法进行参数估计:

μk^=1nki:yi=kxi

πk^=nkn

σ2^=1nkKk=1i:yi=k(xiμ^k2)

3.P>1
同理得:

δk(x)=xTΣ1μk12μTkΣ1μk+log(πk)

参数估计的方法同上,需要估计协方差矩阵 Σ

4.评价:confusion matrix

QDA(Quadratic Discriminat Analysis)

与LDA**相同**,QDA也假设了每个类的观测值都来自于高斯分布
与LDA**不同**,QDA假设每个类有它们自己的协方差矩阵,即 N(μk,Σk)
因此:

δk(x)=12(xμk)TΣ1(xμk)12log|Σk|+log(πk)

原因

1.variance-bias trade-off : 在现实情况中,真实的分布f不能得到,需要通过观测值组成训练集来估计。训练集可能不完全也可能来自于不同的观测值,因此variance反应了不同数据集预测得到的 \f^ \f 之间差距的变化度。bias反应了预测的误差。
2.QDA相比LDA需要估计更多的参数,当数据量足够大时,variance不再是主要的问题,选用QDA更好
3.当数据量较小时,LDA更常用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值