首页 AI学术青年与开发者社区

【中文字幕】卡耐基梅隆大学 2018 秋季《深度学习导论》Bhiksha Raj 领衔主讲

开课时间:9月27日开始正式发布,更新节奏视官网课程而定
开课时长:28讲视频

Recent Success

1、图像识别

2、目标检测

3、game-chess

4、字幕生成

Weekly Quiz

lecture也很重要

找出多少也ppt没在课堂上,他们的区别在哪儿?

Rosenblatt

什么是神经网络

认知

柏拉图 联接主义 400年前

食物和铃铛 狗 连接主义

但并没有深刻的理解。

Bain第一个现代人工神经网络-1973

链接机器,所有的信息都存在连结中

[展开全文]

这一节的内容是课程介绍。

神经网络就相当于一个黑盒子,可以通过构建这个盒子,实现语言识别、视频描述、游戏决策。

起源:联结主义。

信息储存在神经元与神经元的连接中。

 

[展开全文]

深度神经网络已经被应用在人类社会的各个领域中。这节课主要是介绍一下深度学习有多牛逼。同时介绍了人工神经网络的始祖Bain的理论。

[展开全文]

神经网络应用:

1)翻译

2)图像分割

3)语音识别

4)图像加文字说明

5)自动检测

6)games

2015年谷歌上线给予最新深度模型的翻译系统,翻译质量大幅提升。

神经网络历史

1) 人类是如何认知,大脑的神经元数量,以及多达数百亿的神经元链接

2)知识储存于链接之中

[展开全文]

通过神经网络可以模拟任意的布尔运算与多项式运算。

神经网络模拟情况的好坏取决于网络的深度和宽度。如果只用一层的话需要的节点数将会呈指数级增长,因此我们会用多层网络来进行模拟。

同时在网络的训练过程中在每一层的传递时需要考虑信息的损失,sigmoid激活函数会损失两端的信息,造成失真现象,常用于最后一层不需要回传信息时。其余层多用ReLU函数进行激活保留各层信息。

[展开全文]

感知机--找到一个线性超平面区分正负样本

线性平面能够分开所有样本,并使所以样本距其最远。权重W是这个 超平面的法线,它会尽可能的指向正样本背离负样本,经过反复迭代找出最适位置。偏置b是为了找到所有样本中间位置。

只有前向传播寻找复杂样本的分界线将会是一个NP问题。所以为了解决问题引入了反向传播,同时为了使反向传播可导使用sigmoid做激活函数,又因为多数样本存在与x的中间位置,sigmoid对两边数据的区分度高,对中间位置区分度较低,所以给予出现次数多的样本更高的权重,出现次数少的样本较低权重。相当于求函数的概率期望。

[展开全文]

本节课除了介绍了一些 Deep Learning 当前的应用,课程规则,以及人类认知研究历史的一段,从中能看到网络的影子。

[展开全文]

WtX = |W|x|X|cosb

两个向量的点乘,在计算时采用线性代数的运算法则行向量W乘以列向量X 得出两个向量之间的结果。

找到整个函数的最小值,考虑一阶导数与二阶导数。实际无法一次求得,采用反复迭代的方式求得结果。即函数导数为0点。每次前进方向都为函数导数的反方向取一定的步长。

最后利用交叉熵函数求预测结果y与标定d的相关回传梯度去修正W与b。两个结果之间的相关度使用散度来表示。

[展开全文]
mefly · 2020-01-02 · 4.2 反向传播 0

网络利用偏导数和散度反向计算前一轮W+b产生的误差。利用链式求导反向计算,前一层利用后一层回传的导数来计算自己的偏差,只需一次计算不用反复计算。

梯度计算与感知机的区别

梯度计算异常点对其影响不大,有可能出现误分情况。感知机会对每一个类别进行区分,异常点对其影响很大,计算过程可能会较大。

梯度下降在样本大时会产生多种鞍点容易陷入局部最优。在链式过长时可能梯度消失,softmax可能会产生梯度爆炸。

[展开全文]

为了进一步增强模型的准确性和学习速率。

通常我们在一开始会选用较大学习率,在经过一定时间后进行衰减。以求在保证准确性的前提下加快训练过程,同时避免陷入局部最优。

相关的方法有多种基于梯度下降衍生的优化算法,针对不同的场景和需求适当选用会有比较好的结果。

[展开全文]

进入小组观看课程

更多 >>
以下为该课程相关学习小组,您可以选择任意小组加入学习课程并交流

SMART Lab学习小组

成员:1泡泡:0

点击观看
生物医学小分队

成员:164泡泡:67

点击观看
CUM 11-485/785 NLP学习小组

成员:278泡泡:160

点击观看