首页 AI学术青年与开发者社区

【中文字幕】卡耐基梅隆大学 2018 秋季《深度学习导论》Bhiksha Raj 领衔主讲

开课时间:9月27日开始正式发布,更新节奏视官网课程而定
开课时长:28讲视频

感知器神经元 可模拟布尔运算,

带隐层的感知器网络可进行凸形状表示

多个凸形状集合 可用多个感知机网络联合

感知机网络可逼近任意形状函数

[展开全文]
黑匣子就是神经网络,而神经网络就是多层感知机MLP,了解权重、阈值等概念。可用于图像识别。 只是粗略了解,完全搞懂里面的东西需要更多时间。
[展开全文]

感知器在实际值进行表示时,需要有激活函数才可以进行表示

[展开全文]

hebbian learning的方案的问题:

不能进行减法,权重会一直增加。

Frank Rosenblatt:

提出权重,阈值,并且提供了权值更新的算法,实际上也是现在广泛使用的方法。

可以进行模拟  与,和,或,非操作

但是无法模拟亦或操作!

[展开全文]

1.神经网络的起源是人类脑部的工作方式以及计算模型

2.神经网络是基于联结主义的机器模型

3.将神经网络定义为网络化的多个神经元集合

4.McCullough与Pitt模型将神经元定义为一个和布尔函数类似的阀值控制单元,但是没有学习规则

5.Hebb的学习规则,定义神经元通过一起连接和工作达到一个不稳定的学习规则

6.Rose的感知机理论则是Mc和Pitt模型的一个变体,证实神经元其实可以对学习规则进行收敛,但他夸大了感知机的能力,因为单个感知机的能力有限。后出现了多层感知机,该模型能够对任意的复杂布尔函数进行建模,但本质上它还是基本的布尔型机器,只是通过各种不同的线性函数的组合来实现这一点,但是MLP能代表任意形状决策边界,MLP可以用来分类数据,甚至做更多,例如建模实数函数。MLP作为联结型计算模型是可以用来处理分类任务的,MLP同样可以用来对连续型函数进行建模。

7.有趣的AI任务只是一些函数,能被神经网络建模的函数

 

 

[展开全文]
前面就是介绍课程,内容只有brain原理
[展开全文]
刚开始,介绍大脑神经的历史
[展开全文]

进入小组观看课程

更多 >>
以下为该课程相关学习小组,您可以选择任意小组加入学习课程并交流

SMART Lab学习小组

成员:1泡泡:0

点击观看
生物医学小分队

成员:164泡泡:67

点击观看
CUM 11-485/785 NLP学习小组

成员:278泡泡:160

点击观看