0
点赞
收藏
分享

微信扫一扫

正则化Regularization


重点:

  • 目的:为了避免过拟合,降低模型的复杂度,符合奥卡姆剃刀原理
  • 使用条件:当且仅当模型表达能力过强,即有可能出现过拟合的情况下才使用
  • 使用方法:在之前的损失函数后面加上惩罚项
  • 常见类别:L1-正则化(LASSO)、L2-正则化(Ridge)
  • 附加知识:L-N范数
  • 注意区分:正则化Regularization和标准化Normalization的区别

    补充:无穷范数是指所有元素中最大值

参考资料:

  • ​​线性回归——lasso回归和岭回归(ridge regression)
  • ​​机器学习------L1、L2规范化(L1 Regularization、L1 Regularization)​​
  • ​​机器学习中的范数规则化之(一)L0、L1与L2范数​​
  • ​​L1范数与L2范数的区别​​
  • ​​范数(norm) 几种范数的简单介绍​​


举报

相关推荐

0 条评论