Gating - LSTM/GRU
¥
支付方式
请使用微信扫一扫 扫描二维码支付
请使用支付宝扫一扫 扫描二维码支付
Gating - LSTM/GRU
Convolutional layer
Filter
BELU
Pooling
Fully connected layer (FC) - classify data samples
supervised learning method- need labelled data for training
Deep Belief Network (DBN)
supervised learning
Bloltzmann machine: RBM ->feature extractor/autoencoder
backpropagation
vanishing gradient
supervised learning - labelled data
text/speech processing - RNN (Recurrent Net)
image processing - CNN (Convolutional Net)
Forward-prop
Weight/Basis
SVM/logistic regration - simple pattern
神经网络
推荐资源:
Michael Nielsen
吴恩达
分类问题:
1.可用的分类器:
逻辑回归,支持向量机,朴素贝叶斯, 神经网络
2. 前向传播(Forward prop):神经网对一组输入进行分类的方式
多层感知器(MLP)
backpropagation反向传播
issue= vanishing gradient消失梯度
2006年之前,deep learning方向由于back-prop带来的vanishing gradient问题,效果不佳,甚至不如浅层的网络,直到hinton、lecun、bengio发表了三篇breakthrough papers,一切都改变了。
从这节开始有点看不懂了。
How to choose a deep net?