@TOC
一、正则化
在统计机器学习中,我们常常希望将我们的变量或者权重进行一定的约束,假设我们的模型为y=ax+b
,我们希望对a
加以限制,一般有两种选择:
注意这两种选择中要求的值都是,而不是
,所以对
进行了约束
约束问题:对a的取值加以限制,然后用最小二乘法进行求解,分为等式约束、大小于号约束
constraint form:
其中,
无约束问题:同时对最小二乘法和参数a进行最小化
Unconstrained form:
其中,
约束与无约束问题的解区别在于的分母是否有
,进行正则化的原因是希望引入额外的信息能够帮助解决不适定的问题
二、约束问题
1. 转化为广义拉格朗日函数
考虑一个最优化问题,对于任意的,原始问题可以表述为
我们引入广义拉格朗日函数,其中:
将上述公式进行转化为,其中
表示原始问题:
考虑极小值问题,注意此问题与
等价,
问题被称为广义拉格朗日函数的极小极大问题,定义其最优解:
2. 引入对偶解拉格朗日函数
对偶问题:
注意对偶问题和上述问题不同,上述问题是求
的最大值,这里是求最小值
考虑极大值问题,
问题被称为广义拉格朗日函数的极大极小问题,定义其最优解:
3. 拉格朗日与其对偶问题的关系
上面我们已经写出了拉格朗日问题的最优解以及其对偶问题的最优解
,二者关系:
上述关系是弱对偶条件,当“
“成立时,变成强对偶条件,此时
,可以用此结论来通过求解对偶问题得到拉格朗日函数的答案
对于可微函数,在KKT条件下强对偶成立,此时:
**KKT条件:**分为三种,一种是无约束,一种是等式约束,另一种是不等式约束