在机器学习中,正则化是一种用于防止模型过度拟合的技术。通过对模型的系数引入惩罚项,正则化可以限制模型参数的大小,从而提高模型的泛化能力。这种技术可以提高模型的可靠性、速度和准确性。正则化本质上是通过添加额外的参数来限制模型的复杂度,从而防止网络参数过大导致模型过拟合的问题。
正则化会增加偏差吗?
正则化的目的是通过简化估计量来减少估计量的方差,从而提高模型的泛化能力。然而,正则化会以增加偏差的方式来实现这一目标。通常情况下,偏差的增加发生在样本量较少或参数数量较多的情况下,即模型容易过拟合的情况。然而,当正则化正确地应用时,它可以确保引入适量的偏差,从而避免过度拟合的问题。
正则化的作用和意义
正则化的作用和意义是为了防止过度拟合。当发生过拟合时,模型的泛化能力几乎丧失。这意味着该模型只适用于训练数据集,而不能适用于其他数据集。通过正则化,可以通过引入惩罚项来限制模型参数的大小,从而减少模型的复杂度,提高其泛化能力。这样可以使模型更好地适应新的数据集,提高其预测性能和稳定性。
举个例子,正则化可以看作是通过调整参数a来控制偏差和方差之间的平衡。当a的值较高时,模型的系数减小,从而减小方差。逐渐增大的a可以减少方差,避免过拟合,但超过某个阈值后,会引入偏差,导致欠拟合。
正则化的原理
正则化通过向复杂模型添加带有残差平方和(RSS)的惩罚项来发挥作用。以简单的线性回归方程为例。其中Y表示依赖特征或响应。
Y近似为β0+β1X1+β2X2+…+βpXp,X1、X2、…Xp是Y的独立特征或预测变量,β0、β1、…..βn表示不同变量或预测变量(X)的系数估计,它描述了附加到特征的权重大小。
拟合过程包括损失函数、残差平方和(RSS)函数。以最小化损失函数的方式选择系数。
系数将根据训练数据进行调整。如果训练数据中有噪声,就会发现估计的系数不会很好地泛化到未来的数据。这就是正则化发挥作用的地方,将那些训练学习到的估计值缩小并正则化为零。
正则化有哪些类型
dropout
在dropout中,激活的随机数会更有效地训练网络。激活是将输入乘以权重时得到的输出。如果在每一层都删除了激活的特定部分,则没有特定的激活会学习输入模型。这意味着输入模型不会出现任何过度拟合。
批量归一化
批量归一化通过减去批量均值并除以批量标准差来设法归一化前一个激活层的输出。它向每一层引入两个可训练参数,以便标准化输出乘以gamma和beta。gamma和beta的值将通过神经网络找到。通过弱化初始层参数和后面层参数之间的耦合来提高学习率,提高精度,解决协方差漂移问题。
数据扩充
数据扩充涉及使用现有数据创建合成数据,从而增加可用数据的实际数量。通过生成模型在现实世界中可能遇到的数据变化,帮助深度学习模型变得更加精确。
提前停止
使用训练集的一部分作为验证集,并根据该验证集衡量模型的性能。如果此验证集的性能变差,则立即停止对模型的训练。
L1正则化
使用L1正则化技术的回归模型称为套索回归。Lasso回归模型即Least Absolute Shrinkage and Selection Operator,将系数的“绝对值”作为惩罚项添加到损失函数中。
L2正则化
使用L2正则化的回归模型称为岭回归。岭回归模型即Ridge回归,在Ridge回归中系数的平方幅度作为惩罚项添加到损失函数中。