0
点赞
收藏
分享

微信扫一扫

Java Web学习笔记26——Element常用组件

简介

1. 梯度下降的3种方法

梯度下降分三类,原理基本相同,操作方式略有区别

  1. 批量梯度下降BGD(BatchGradient Descent):使用全量数据进行特征抽取,模型训练
  2. 小批量梯度下降MBGD(Mini-Batch Gradient Descent):从全量数据中随机抽取部分数据进行特征抽取,模型训练
  3. 随机梯度下降SGD(Stochastic Gradient Descent):从全量样本数据中随机抽取1个样本进行模型训练
    在这里插入图片描述

1.1 梯度下降的操作步骤分为以下4步

  1. 随机赋值,Random随机数生成 θ \theta θ,随机一组数值 w 0 、 w 1 . . . w n w_0、w_1...w_n w0w1...wn
  2. 求梯度g(默认认为数据符合正态分布,g对应最小二乘法公式),梯度代表曲线某点上的切线的斜率,沿着切线往下就相当于沿着坡度最陡峭的方向下降
  3. if(g) < 0: θ \theta θ​变大,if(g>0): θ \theta θ​变小
    • (x = x - eta * g(x))
  4. 判断是否收敛convergence,如果收敛跳出迭代,如果没有达到收敛,回第2步再次执行2~4步。
    • 收敛的判断标准是:随着迭代进行损失函数Loss,变化非常微小甚至不再改变,即认为达到收敛

1.2 三种梯度下降不同,体现在第二步中:

  1. BGD是指在每次迭代使用所有样本来进行梯度的更新
  2. MBGD是指在每次迭代使用一部分样本(所有样本1000个,使用其中100个样本)来进行梯度的更新
  3. SGD是指每次迭代随机选择一个样本来进行梯度更新

2. 线性回归梯度更新公式

2.1 求解上面梯度下降的第2步,即推导出损失函数的导函数来。

θ j n + 1 = θ j n − η ∗ ∂ J ( θ ) ∂ θ j \theta_j^{n+1} = \theta_j^{n} - \eta * \frac{\partial {J(\theta})}{\partial \theta_j} θjn+1=θjnηθjJ(θ)

∂ J θ ∂ θ j = ∂ ∂ θ j 1 2 ( h θ ( x ) − y ) 2 \frac{\partial{J\theta}}{\partial \theta_j} = \frac{\partial}{\partial {\theta_j}}{\frac12 (h_{\theta}(x) - y)^2} θjJθ=

举报

相关推荐

0 条评论