线性回归:最小二乘法求解 线性回归是机器学习中的一种监督学习算法,用于预测连续型目标变量。线性回归的目的是找到一个最佳的参数θ,使得预测值与实际值之间的差异最小。最小二乘法(Ordinary Least Squares,OLS)是线性回归中的一种常用方法,用于估计参数θ。 线性回归模型可以表示为: y = x + ε 其中,y是目标变量,x是自变量,ε是误差项,服从均值为0、方差为2σ的高斯分布。 假设我们有m个样本,每个样本对应一个预测结果y和一个实际值x。我们可以根据这m个样本来估计参数θ。最大似然估计原理是,我们想要找到一个参数θ,使得所有样本的似然函数最大化。 似然函数可以表示为: L(y|x, θ) = ∏[i=1 to m] exp(-(y_i - x_i*θ)^2 / (2*σ^2)) / (√(2π) * σ) 取对数后,可以得到: logL(y|x, θ) = -∑[i=1 to m] (y_i - x_i*θ)^2 / (2*σ^2) - m/2 log(2π) - m/2 log(σ^2) 展开化简后,可以得到: logL(y|x, θ) = -∑[i=1 to m] (y_i - x_i*θ)^2 / (2*σ^2) - m/2 log(2π) - m/2 log(σ^2) 目标是让似然函数越大越好,即让对数似然函数越大越好。我们可以定义一个代价函数(cost function): J(θ) = ∑[i=1 to m] (y_i - x_i*θ)^2 / (2*σ^2) 这个代价函数的目标是让其越小越好。我们可以使用梯度下降法来求解这个代价函数的最小值。 将代价函数写成矩阵形式: J(θ) = (Y - X*θ)^T *(Y - X*θ) / (2*σ^2) 其中,X是m行n列的矩阵,θ是n行1列的矩阵,Y是m行1列的矩阵。我们可以求解这个代价函数的最小值,得到: θ = (X^T * X)^-1 * X^T * Y 这个式子就是最小二乘法的 Closed-form Solution。 线性回归的最小二乘法是一种常用的参数估计方法,通过最大似然估计原理和梯度下降法,可以得到参数θ的估计值。





















- 粉丝: 1553
我的内容管理 展开
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助


最新资源
- 基于Android的社交分享平台的设计论文.doc
- 网络宣传管理工作总结.docx
- 董老师研发多项目管理.doc
- 基因工程的步骤.ppt
- 国际货物买卖法MicrosoftPowerPoint演示文稿.pptx
- 金蝶软件初始化准备及基础资料编码规则培训.ppt
- 软件售后服务人员提成方案附表.docx
- 设施网络规划与物流管理.pptx
- 网络侵权的界定是什么?.doc
- 基于MATLAB彩色图像及增强处理设计方法.doc
- 项目管理人员安全生产责任制考核记录表.doc
- 天骄联盟网网络推广策划书.doc
- 中小企业会计信息化综述.doc
- 门户网站Web及应用服务器加速及负载均衡方案.doc
- 信息系统项目管理师九大项目管理知识点整合.pdf
- 根源性创新与计算机产业.ppt


