Recent Success
1、图像识别
2、目标检测
3、game-chess
4、字幕生成
Weekly Quiz
lecture也很重要
找出多少也ppt没在课堂上,他们的区别在哪儿?
Rosenblatt
什么是神经网络
认知
柏拉图 联接主义 400年前
食物和铃铛 狗 连接主义
但并没有深刻的理解。
Bain第一个现代人工神经网络-1973
链接机器,所有的信息都存在连结中
¥
支付方式
请使用微信扫一扫 扫描二维码支付
请使用支付宝扫一扫 扫描二维码支付
Recent Success
1、图像识别
2、目标检测
3、game-chess
4、字幕生成
Weekly Quiz
lecture也很重要
找出多少也ppt没在课堂上,他们的区别在哪儿?
Rosenblatt
什么是神经网络
认知
柏拉图 联接主义 400年前
食物和铃铛 狗 连接主义
但并没有深刻的理解。
Bain第一个现代人工神经网络-1973
链接机器,所有的信息都存在连结中
这一节的内容是课程介绍。
神经网络就相当于一个黑盒子,可以通过构建这个盒子,实现语言识别、视频描述、游戏决策。
起源:联结主义。
信息储存在神经元与神经元的连接中。
深度神经网络已经被应用在人类社会的各个领域中。这节课主要是介绍一下深度学习有多牛逼。同时介绍了人工神经网络的始祖Bain的理论。
神经网络应用:
1)翻译
2)图像分割
3)语音识别
4)图像加文字说明
5)自动检测
6)games
2015年谷歌上线给予最新深度模型的翻译系统,翻译质量大幅提升。
神经网络历史
1) 人类是如何认知,大脑的神经元数量,以及多达数百亿的神经元链接
2)知识储存于链接之中
通过神经网络可以模拟任意的布尔运算与多项式运算。
神经网络模拟情况的好坏取决于网络的深度和宽度。如果只用一层的话需要的节点数将会呈指数级增长,因此我们会用多层网络来进行模拟。
同时在网络的训练过程中在每一层的传递时需要考虑信息的损失,sigmoid激活函数会损失两端的信息,造成失真现象,常用于最后一层不需要回传信息时。其余层多用ReLU函数进行激活保留各层信息。
感知机--找到一个线性超平面区分正负样本
线性平面能够分开所有样本,并使所以样本距其最远。权重W是这个 超平面的法线,它会尽可能的指向正样本背离负样本,经过反复迭代找出最适位置。偏置b是为了找到所有样本中间位置。
只有前向传播寻找复杂样本的分界线将会是一个NP问题。所以为了解决问题引入了反向传播,同时为了使反向传播可导使用sigmoid做激活函数,又因为多数样本存在与x的中间位置,sigmoid对两边数据的区分度高,对中间位置区分度较低,所以给予出现次数多的样本更高的权重,出现次数少的样本较低权重。相当于求函数的概率期望。
本节课除了介绍了一些 Deep Learning 当前的应用,课程规则,以及人类认知研究历史的一段,从中能看到网络的影子。
WtX = |W|x|X|cosb
两个向量的点乘,在计算时采用线性代数的运算法则行向量W乘以列向量X 得出两个向量之间的结果。
找到整个函数的最小值,考虑一阶导数与二阶导数。实际无法一次求得,采用反复迭代的方式求得结果。即函数导数为0点。每次前进方向都为函数导数的反方向取一定的步长。
最后利用交叉熵函数求预测结果y与标定d的相关回传梯度去修正W与b。两个结果之间的相关度使用散度来表示。
网络利用偏导数和散度反向计算前一轮W+b产生的误差。利用链式求导反向计算,前一层利用后一层回传的导数来计算自己的偏差,只需一次计算不用反复计算。
梯度计算与感知机的区别
梯度计算异常点对其影响不大,有可能出现误分情况。感知机会对每一个类别进行区分,异常点对其影响很大,计算过程可能会较大。
梯度下降在样本大时会产生多种鞍点容易陷入局部最优。在链式过长时可能梯度消失,softmax可能会产生梯度爆炸。
为了进一步增强模型的准确性和学习速率。
通常我们在一开始会选用较大学习率,在经过一定时间后进行衰减。以求在保证准确性的前提下加快训练过程,同时避免陷入局部最优。
相关的方法有多种基于梯度下降衍生的优化算法,针对不同的场景和需求适当选用会有比较好的结果。