机器学习 - 逻辑回归

逻辑回归是一种广泛用于分类问题的统计方法,特别是在二分类问题中应用最为普遍。它是监督学习的一种形式,适合于估计离散值(如是/否)之间的关系。

左图是我们的回归问题,输出的是连续数值,右图则是我们的分类问题。
在这里插入图片描述

基本原理

逻辑回归的目标是找到一个概率模型,预测给定输入变量的输出类别。虽然名为“回归”,但逻辑回归实际上是一种分类方法。

核心思想是使用逻辑函数(或称sigmoid函数)将线性回归模型的输出值映射到0和1之间,这个映射后的值表示某个类别发生的概率。逻辑函数的公式为:

σ(z)=11+e−z\sigma(z) = \frac{1}{1 + e^{-z}}σ(z)=1+ez1

其中( z )是输入特征的线性组合,形式为:

z=β0+β1x1+β2x2+⋯+βnxnz = \beta_0 + \beta_1 x_1 + \beta_2 x_2 + \cdots + \beta_n x_nz=β0+β1x1+β2x2++βnxn

参数估计

逻辑回归通常使用最大似然估计(MLE)来确定参数β\betaβ系数)。最大似然估计的目的是找到使得观测到的样本数据出现概率最大的参数。在逻辑回归中,这等同于找到一个参数集合,使得模型预测的概率与实际数据匹配得最好。

损失函数

逻辑回归的损失函数

在逻辑回归中,我们使用对数损失(Log Loss),也称为二元交叉熵损失(二分类问题)。这个损失函数用于衡量模型预测概率与实际标签之间的差异。

对于一个二分类问题,逻辑回归模型输出的是一个概率 p^\hat{p}p^(即属于类别1的概率)。假设我们有 NNN 个样本,模型的预测概率为 p^i\hat{p}_ip^i,真实标签为 yiy_iyi(取值为0或1),则逻辑回归的损失函数(对数损失)定义为:

L=−1N∑i=1N[yilog⁡(p^i)+(1−yi)log⁡(1−p^i)]L = -\frac{1}{N} \sum_{i=1}^N \left[ y_i \log(\hat{p}_i) + (1 - y_i) \log(1 - \hat{p}_i) \right]L=N1i=1N[yilog(p^i)+(1yi)log(1p^i)]

损失函数的推导

  1. 预测概率
    逻辑回归模型通过逻辑函数(sig

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Violent-Ayang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值