首页 AI学术青年与开发者社区

【中文字幕】卡耐基梅隆大学 2018 秋季《深度学习导论》Bhiksha Raj 领衔主讲

开课时间:9月27日开始正式发布,更新节奏视官网课程而定
开课时长:28讲视频

 线性特质:

f(ax+by) = af(x) +bf(y)

f(x)=西格玛求和xi+b,b不为零时,不过原点。

阈值使用激励函数进行平滑0,1的输出,比如sigmod,tanh,rl等函数。

 

 多层感知机作为一个通用的布尔函数,作为一个通用的分类器,作为一个通用的函数模拟器。这些机制在前面已经提到,深度学习的机制从这里展开。

 

首先是布尔函数的表达,单层表达布尔开关,多二层(一层隐藏层)表达所有的布尔表达式。如图:

 其中每个真值表里的真值可以用析取范式表达,而每个析取范式可以在隐藏层中的某一个节点与输入(x1到x5)的链接表达。因此两层足够表达表结构。而隐藏层的感知节点数通常在最坏情况下是为2的n-1次方,n为输入量,是指数关系。这时需要加深层次去削减节点,n个输入的异或操作使用3(n-1)个节点就可以了,而层数为2log2N。这里就需要对层数和节点数做个权衡,这里并不是那种深度固定的问题。

 

Karnaugh Map优点:

1、用Grid的形式来表示真值表,第一眼看起来很直观。

2、每个相邻的格子之间的只有一个bit位的差别。

3、简化了析取范式。

  • 如果用最基本的析取范式(DNF)来表示,则需要7个表达式(每一个高亮的格子都需要一个表达式,例如0000,表示为XYZW,再将其7个表达式组成析取范式)。
  • 如果用Karnaugh Map,运用Group组合,由第一列可以看出来,当YZ为00的时候,WZ的值不会影响真值(Truth Value)。​此时四个表达式可以简化为一个。

4、在第一层可以减少Neuron神经结点的数量。可以减少到3个神经元。

 

Karnaugh Map缺点:

1、在Karnaugh Map中找到最紧凑的Group组合是一个NP难的问题。

2、(Worst Case)当表示为一个棋盘格的时候,Karnough Map所需要的Neuron神经结点是最多的。下图需要8个单元。

 

Karnough Map 三维 6个变量的特性:

1、由4 x 4 x 4 =64 个小立方体组成,每一个立方体代表一种表达式,一种可能性。

2、Worst Case需要 8 x 4 = 32 个 Neurons。总结:2^(N-1)(指数型)

 

XOR 特性:

1、交换律。

2、结合律。

简化版的XOR运算只需要2个神经元。

 

每一个XOR运算可以只用3个神经元表示。这样将神经元数量由指数型降到了线形。2^(N-1) -> 3 x (N-1)。运用XOR的结合律可以讲,深度从N -> log(n)。

该笔记来自:2.1:神经网络作为通用逼近器

 

 

 

 

[展开全文]

CMU的课真的不水,14次小测还有4次项目大家可以到课程主页下载课件http://deeplearning.cs.cmu.edu/

https://github.com/cmudeeplearning11785/Fall2018-tutorials

[展开全文]

1导论部分讲了神经网络(多层感知器)的历史,从连接机器与冯诺依曼机讲起,再到bool型感知器能够模拟或且非逻辑运算。通过增加1层感知器获得更复杂的运算(异或),进而证明了三层感知器可以计算任意布尔运算。同时,学习算法也从赫伯型到广义赫伯型,进而发展到Rosenblatt学习算法。

2将拟合的布尔函数的输入从布尔拓展到实数,进而能表示复杂的决策边界,能对多分类问题进行判别。

3感知器感知什么?感知X和W的夹角,越接近相应越大。单个感知器是检测输入模式的相关性滤波器,MLP是级联的特征检测器。

4神经网络是函数

 

[展开全文]
  • Frank Rosenblatt
  • black box
  • think about brain
    • 联结主义
      • 闪电+雷声(association) 

 

[展开全文]

传统计算机为处理器和数据分离,数据在内存中,但是连接机器数据分布在整个系统中,有时候改动其中的数据,会改动整个系统。

 

神经网络属于连接机器,本质是多层感知机,其特点为多单元,多链接,信息隐藏其中。

 

多层感知机最初的研究集中在模拟各种布尔运算,但是问题在于结构上无法模拟复杂的布尔运算,无法进行数值计算。

 

后来证明可以用多层网络机制解决复杂的布尔运算,而简单的线性函数可以耦合出布尔函数,利用布尔函数可以构建不同的规则。

 

这样多层感知机就可以耦合各种不同的情况,复杂的情况可以分割为各种凸包的组合进行处理。

[展开全文]

     在连接性的机器之中,知识、经验是呀不同元素之间的连接作为存储的方式的。

     对于连接性系统的要求:神经单元之间的连接;每一个神经元的激活函数;修改神经元之间连接的学习规则;以及如何从语义方面对网络进行解释。

     多层感知机可以随意的完成复杂的布尔函数。对于输入和输出值为任意实数的情况下,多层感知器也能完成。

    多层感知器被用来完成分类任务,每一个单独的感知器可以被当做特征提取单元。多层感知器同样可以用来处理连续的实数函数。每一个多层感知器的权重相当于固定模型的模板,因此感知器可以当做特征的滤波器进行试验。

    

[展开全文]

   神经网络受到认知心理学的启发,通过对人类大脑神经元的连接,设计了最初的感知器,感知器的不同的链接方式以及不同的输入数据,对最后的结果都会产生相应的影响。

[展开全文]

神经网络可以作为通用的布尔函数,实值函数逼近器,层数越多,越能模拟更复杂的函数,并随着层数增多,每层需要的节点也呈现指数下降

[展开全文]

应用:语音识别、机器翻译、图像分割、自动驾驶、下棋。照片转化为文字描述

不再是简历上的加分项,没有会扣分。

 

每天都有巨大的变化。

课程将包括理论与实践。

介绍相关课程信息。

[展开全文]

4.1 反向传播

这一节主要介绍导数和梯度的概念。导数是函数值的变化,讨论如果导数是向量。

梯度是一个行向量。二姐偏导数一般用海森矩阵表示。

通常,用迭代的方法寻找极值。

[展开全文]

进入小组观看课程

更多 >>
以下为该课程相关学习小组,您可以选择任意小组加入学习课程并交流

SMART Lab学习小组

成员:1泡泡:0

点击观看
生物医学小分队

成员:163泡泡:67

点击观看
CUM 11-485/785 NLP学习小组

成员:278泡泡:160

点击观看