首页 AI学术青年与开发者社区

【独家授权】神经网络系列课 ——Google Brain Hugo Larochelle

开课时间:从12月8日开始,每两周更新一章
开课时长:每个视频长度 6min - 20 min

tanh(a) 双曲正切函数

类似的有双曲正弦 sinh(x)

双曲余弦 cosh(x)

并且有tanh(x) = sinh(x) /cosh(x)

和三角函数性质类似。

reclin(x) = max(0,a)

= 0 if a<=0 else a

[展开全文]
啊策 · 2019-05-21 · 1.2 激活函数 0

线性激活函数

SIGMOD函数 1/(1+e^(-a)) (0,1)

tanh函数 (e^(2a)-1)/(e^(2a)+1) (-1,1)

reclin Relu max(0,a) 倾向于给出具有稀疏性的神经元输出节点,倾向于获得输出为零的神经元

 

[展开全文]
李哲 · 2018-05-21 · 1.2 激活函数 0

activation function

1. 线性激活函数

g(a) = a  (-∞,+ ∞) →  (-∞,+ ∞) 

2.sigmoid激活函数

g(a) = sigm(a) = 1/(1+exp(-a))  

 (-∞,+ ∞) →  (0,1) 

3.tanh激活函数

g(a) = tanh(a) = (exp(a) - exp(-a)) /(exp(a) +exp(-a)) = (exp(2a) - 1) /(exp(2a) + 1)

 (-∞,+ ∞) →  (-1,1) 

4.reclin激活函数

g(a) = reclin(a) = max(0,a)

 (-∞,+ ∞) →  [0,+∞) 

[展开全文]

进入小组观看课程

以下为该课程相关学习小组,您可以选择任意小组加入学习课程并交流