首页 AI学术青年与开发者社区

W+= - Learning rate * dx

Stochastic Gradient Descent (SGD) 

Momentum

m = b1 * m - Learning rate * dx

W += m

NAG

AdaGrad

v += (dx)

W+= - Learning rate * dx /  √ (V)  

Adadelta

RMSProp

v = b1 *v + (1 -b1) * dx 

W+= - Learning rate * dx /  √ (V)  

Adam

m = b1 * m + (1 - b1) * dx

v =b2 * v + (1 - b2) * dx 

W+= - Learning rate * dx /  √ (V)  

[展开全文]

Stochastic Gradient Descent (SGD)

Momentum

AdaGrad

RMSProp

Adam

加速训练,迅速收敛

[展开全文]

相关课程

开课日期:开始
免费课 16348
开课日期:开始
免费课 10166

授课教师

微信扫码分享课程