首页 AI学术青年与开发者社区

Overfitting 过拟合

L1 regularization:

L2 regularization:

Dropout reularization:

[展开全文]

activation function AF

linear/nonlinear

AF 函数:relu, sigmoid, tanh

AF要可微分 (在Back Propegation反向传递中把误差传递回去)

在层数较多时,AF选择要避免梯度爆炸/梯度消失

CNN: Relu

RNN: Relu or tanh

 

[展开全文]

Classifier

feature对于分类的拟合度

避免对于分类无意义的信息

避免重复性的信息

避免复杂的信息

[展开全文]

Feature nomalization

线性回归 linear regression

minmax normalization->(0,1)

std nomorlization->(mean=0, std=1)

 

[展开全文]

Training data: 70%

Test data: 30%

误差Error

训练次数Epochs

Accuracy

R2 score

F1 score

过拟合

交叉验证

[展开全文]

LSTM: long short term memory

Gradient explosion: 梯度爆炸

[展开全文]

Full connection (FC):

Pooling

image->Convolution->max pooling->convtolution->max pooling->FC->FC->Classifier

 

[展开全文]

Input layer

hidden layer

Output layer

Activation

[展开全文]

Semi-supervised learning

Reinforcement learning

Generic algorithm

[展开全文]

相关课程

开课日期:开始
免费课 16353
开课日期:开始
免费课 10170

授课教师

微信扫码分享课程