凸优化理论学习

在机器学习和深度学习的工作中,最后一步都是对损失函数的极值计算,而这个极值如果我们能够找到全局极值也就是最小值,这是最好的情况;否则我们就必须想办法把原来的问题进行转化或者尝试其他的方法。这其中用到的方法就是凸优化理论。

下面我将对我学习的凸优化理论进行一些整理,知识点可能比较杂碎,但句句是关键和我们所必须了解的。

衡量一个问题难易的程度不在于其是否线性,而在于是凸问题还是非凸问题。

一阶导数有时候用g(x)表示,海森矩阵用H(X)表示(g表示gradient,H表Hessian)。

问题针对无约束优化问题和有约束优化问题两种。

####无约束优化问题####
海森矩阵的性质:海森矩阵是对称矩阵,可以衡量二次型的正负,也就特征值是大于0还是小于0。

无约束优化直接分析法的局限(直接求导)
1、可能这个函数就不可导
2、函数可以求导,但是变量很多,求不出导数为0的x
3、就算求出了解,但是这个解可能是个集合

然后使用无约束优化迭代法
1、选择一个初始点;
2、决定搜索方向,使函数下降(核心);
3、决定步长;
4、如果小于容错值,停止迭代;否则继续迭代

三种常用的方法:
第一种:梯度下降法,沿负梯度方向,只使用了一阶导数:搜索比较慢,等值线上显示为Z型走法,轨迹是相互正交的。
第二种:牛顿法。在一阶导数的基础上考虑了二阶导数,性能会更好一点。涉及到了海森矩阵求逆,可能不可逆,比如半正定或者半负定,要做适当修正。等值线上走的是直的。
第三种:拟牛顿法。使用梯度信息去生成对于海森逆矩阵的连续低秩估计。收敛速度比牛顿法相当,但是计算复杂度低很多。

####一般约束优化问题####
定义:约束条件有等式,也有不等式。找到最优解至少要碰到一个边界,不然约束条件都没作用。

在此我们引入K

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值