重点:
- 目的:为了避免过拟合,降低模型的复杂度,符合奥卡姆剃刀原理
- 使用条件:当且仅当模型表达能力过强,即有可能出现过拟合的情况下才使用
- 使用方法:在之前的损失函数后面加上惩罚项
- 常见类别:L1-正则化(LASSO)、L2-正则化(Ridge)
- 附加知识:L-N范数
- 注意区分:正则化Regularization和标准化Normalization的区别
补充:无穷范数是指所有元素中最大值
参考资料:
- 线性回归——lasso回归和岭回归(ridge regression)
- 机器学习------L1、L2规范化(L1 Regularization、L1 Regularization)
- 机器学习中的范数规则化之(一)L0、L1与L2范数
- L1范数与L2范数的区别
- 范数(norm) 几种范数的简单介绍