X = (x_1,x_2,x_3,...,x_d)^T
W = (w_1,w_2,w_3,...,w_d)^T
X,W都是列向量,a(X) = b+ W^TX
W是连接权重,b是神经元偏置。g(.)是激活函数。
W一般先随机设置几个变量,随后通过训练得到具体值
g有很多种选择,例如softmax,ReUL,tanh 等等
¥
支付方式
请使用微信扫一扫 扫描二维码支付
请使用支付宝扫一扫 扫描二维码支付
X = (x_1,x_2,x_3,...,x_d)^T
W = (w_1,w_2,w_3,...,w_d)^T
X,W都是列向量,a(X) = b+ W^TX
W是连接权重,b是神经元偏置。g(.)是激活函数。
W一般先随机设置几个变量,随后通过训练得到具体值
g有很多种选择,例如softmax,ReUL,tanh 等等