七、正则化
7.1 过拟合的问题
参考视频: 7 - 1 - The Problem of Overfitting (10 min).mkv
过拟合如何处理:
1. 丢弃不能帮助我们正确预测的特征。
2. 正则化。保留所有的特征,但是减少参数的大小。
7.2 代价函数
参考视频: 7 - 2 - Cost Function (10 min).mkv
正则化的基本方法:在一定程度上减小参数
修改后的代价函数:
如果选择的正则化参数
7.3 正则化线性回归
参考视频: 7 - 3 - Regularized Linear Regression (11 min).mkv
对于线性回归的求解,我们之前推导了两种学习算法:一种基于梯度下降,一种基于正规方程。
正则化线性回归的代价函数为:
如果我们要使用梯度下降令这个函数最小化,
Repeat until convergence {
@H_403_865@
θj:=θj−α1m∑((hθ(xi)−yi)∗xij+λmθj)
(for j = 1,2,…,n)
}
对上面的算法中j = 1,n时的更新式子进行调整可得:
用正规方程来求解正则化线性模型:
图中的矩阵尺寸为(n+1)*(n+1)。
7.4 正则化的逻辑回归模型
参考视频: 7 - 4 - Regularized Logistic Regression (9 min).mkv
逻辑回归增加一个正则化的表达式后的代价函数:
要最小化该代价函数,通过求导,得出梯度下降算为:
Repeat until convergence{
for j = 1,n
}
注:
看上去同线性回归一样,但是知道
注意: 1.虽然正则化的逻辑回归中的梯度下降和正则化的线性回归中的表达式看起来一样,但 由于两者的 h(x)不同所以还是有很大差别。 2. θ0 不参与其中的任何一个正则化。