手推公式带你轻松理解L1/L2正则化

来源:wxler评论160

前言

L1/L2正则化的目的是为了解决过拟合,因此我们先要明白什么是过拟合、欠拟合。

  • 过拟合:训练出的模型在测试集上Loss很小,在训练集上Loss较大
  • 欠拟合:训练出的模型在测试集上Loss很大,在训练集上Loss也很大
  • 拟合:训练的刚刚好,在测试集上Loss很小,在训练集上Loss也很小

现在,让我们开启L1/L2正则化正则化之旅吧!

L1/L2正则化原理

L1与L2正则是通过在损失函数中增加一项对网络参数的约束,使得参数渐渐变小,模型趋于简单,以防止过拟合。

损失函数Loss
手推公式带你轻松理解L1/L2正则化-图片1
上述Loss,MSE均方误差的Loss

L1正则化的损失函数
手推公式带你轻松理解L1/L2正则化-图片2
W代表网络中的参数,超参数λ需要人为指定。需要注意的是,L1使用绝对值来约束参数

L2正则化的损失函数
手推公式带你轻松理解L1/L2正则化-图片3
相比于L1正则化,L2正则化则使用了平方函数来约束网络参数

需要注意的是,在有的文献中,把L2正则项定义为权值向量w中各个元素的平方和然后再求平方根,其实,L2正则加不加平方根影响不大,原理都是一样的,但不加平方根更容易数学公式推导

我们知道,当W的值比较大时(即W的值距离0很远,取几百甚至几千的值),则拟合的曲线比较陡,x稍微一变化,y的影响就比较大,如下图所示:
手推公式带你轻松理解L1/L2正则化-图片4
可以看到,你的模型复杂度越大,拟合的曲线就越陡,惩罚项W就越大,在这种情况容易出现过拟合,所以要避免W出现比较大的值,一个有效的方法是给loss加上一个与W本身有关的值,即L1正则项或L2正则项,这样,我们在使用梯度下降法让Loss趋近于0的时候,也必须让W越来越小,W值越小,模型拟合的曲线会越平缓,从而防止过拟合。也可以从奥卡姆剃刀原理的角度去解释,即在所有可以选择的模型中,能够很好拟合当前数据,同时又十分简单的模型才是最好的。

L1与L2正则化让W变小的原理是不同的:

  • L1能产生等于0的权值,即能够剔除某些特征在模型中的作用(特征选择),即产生稀疏的效果
  • L2可以得迅速得到比较小的权值,但是难以收敛到0,所以产生的不是稀疏而是平滑的效果

下面,从两个角度理解L1/L2正则化这两个结论

从数学的角度理解L1/L2正则化

我们来看看L1正则化的损失函数的求导及梯度更新公式

手推公式带你轻松理解L1/L2正则化-图片5
lr是学习率(更新速率),上述求导是Loss或Lossl1Loss_l1wiw_i的偏导,为了方便书写,将wiw_i写成W

  • 上面是加上L1正则化的损失函数后,W更新公式及loss对W求梯度的公式(准确的说是对wi求偏导),|W|对Wi的导数是1或-1,这样W更新公式就变为加上或减去一个常量lr,
  • 就是说权值每次更新都固定减少一个特定的值(比如0.01),那么经过若干次迭代之后,权值就有可能减少到0。

L1正则化的损失函数的求导及梯度更新公式(假设λ=1/4lambda=1/4)
手推公式带你轻松理解L1/L2正则化-图片6

  • 从上面的公式中可以看到,加上L2正则项后,W实际上每次变为原来的C倍(另一项忽略不计),假如C=0.5,那么,W每次缩小为原来的一半,虽然权值W不断变小,但是因为每次都等于上一次的一半,所以很快会收敛到较小的值但不为0。

从几何的角度理解L1/L2正则化

由于L1正则化项是∣w1 w2 ... wn∣|w_1 w_2 ... w_n|,为了便于理解,我们假设,L1正则项是w1 w2w_1 w_2,将其画在二维坐标轴上如下所示:
手推公式带你轻松理解L1/L2正则化-图片7

  • 横轴是w1,纵轴是w2,优化空间是一个等高线图,可以看优化曲线在圆圈上移动时,只有直达W2轴的交点处,才能满足两个条件:让loss最小,让w1 w2最小,此时w2=0,所以说,L1中两个权值倾向于一个较大另一个为0即产生稀疏的效果

由于L2正则化使用了平方函数,而如果两个参数的平方和相同,呈现出的形状会是一个圆。

手推公式带你轻松理解L1/L2正则化-图片8

  • 可以看优化曲线在圆圈上移动时,只有在两个圆圈的交点处,才能满足两个条件:让loss最小,让w1 w2w^1 w^2最小,此时L2中两个权值都倾向于为非零的较小数,所以说,L2产生平滑的效果。

L1/L2正则化使用情形

  • L1能产生等于0的权值,即能够剔除某些特征在模型中的作用(特征选择),即产生稀疏的效果,如果需要做模型的压缩,L1正则是一个不错的选择。
  • 如果不做模型的压缩,在实际中更倾向于L2正则化,因为在实际操作的过程中,模型该用多少层,模型的参数量,这个不好确定,我们也不知道解决这个实际问题要用多少层网络,用多少个参数,只能去试。在试的过程中,最快最经济的做法是:在模型最开始的时候就加上正则化,不管是在欠拟合或过拟合都加上正则化,然后就不断的去训练,后面根据模型的拟合情况只要增加模型参数和模型结构就行了,不用考虑其他的,即把正则化作为默认的选项去试就可以了。

发表评论

匿名网友