首页 AI学术青年与开发者社区

【中文字幕】卡耐基梅隆大学 2018 秋季《深度学习导论》Bhiksha Raj 领衔主讲

开课时间:9月27日开始正式发布,更新节奏视官网课程而定
开课时长:28讲视频

神经元: 放射变换(带bias)+ 符号运算

 

activation : relu、tanh、sigmoid

deep:dag最长路径 

mlp: bool运算、实数运算

模拟一个真值表需要多深的网络,单层网络参数多2的n次方级别

多层网络logn,

固定层数网络 c*n

 

 

[展开全文]

        1.2 神经计算的历史和认知基础

  1.冯·诺依曼体系结构

  2.神经元(大脑中的信息连接、处理单元)

 细胞体(细胞核、细胞膜、细胞质)和突起(树突、轴突、轴突末梢)

  3.感知机 Perceptron(模拟人类视神经控制系统的图形识别机)

  4.布尔函数 0 1 与或非 同或 异或 组合 其他逻辑运算

  5.输入  权重  参数   运算  输出 阈值比较

            激活函数

  阙(que一声)值,阈(yu四声)值,阀(fa二声)值。正规用法为阈值。意为 “临界值”。是指一个效应能够产生的的最低值或最高。

  多层感知机(MLP):映射一组输入向量到一组输出向量

  6.神经网络的建模

  7. 好好学英语!好好学英语!好好学英语!

 

[展开全文]

讲解了神经网络的起源,联结主义。信息存储在神经元的连接处。现代的神经网络及源于19世纪。

[展开全文]

神经网络已经成为热点领域,其中使用在模式识别以问题分析上,有很多成功领域的例子:

1.语音识别

Google翻译基于神经网络的机器翻译系统,可以说是目前最好的翻译系统。

2.图像分割和识别

基于系统分割的神经网络,在复杂的场景中对物体进行分类识别。

3.模式识别

AlphaGo基于神经网络,开发出了目前最好的围棋系统,

4.语义分析

给图片添加描述,都是使用了深度神经网络来完成,也是成功的应用领域。

5.其他的领域

艺术、天文、医疗、股市预测都是可以从AI中得到了一定的好处。

 

艺术、天文、医疗、股市预测都是可以从AI中得到了一定的好处。

 

 

 

 

[展开全文]

神经网络是一个通用逼近器

  • 可以逼近布尔函数利用电路进行解释通俗易懂
  • 可以逼近分类器。实际上MLP可以构建任意复杂的决策边界可以通过布尔函数的组合实现也可以通过神经网络实现其主要就是利用极限的思想从四边形到五边形到边数特别到时候极限近似为为圆柱体利用圆柱体进而逼近复杂的觉得边界
  • 可以逼近函数。基于圆柱体的思想利用不同的圆柱进行组合进而逼近函数的值。如果采用一个隐藏层的神经网络来近似函数那么就用指数级别的神经元来逼近函数。如果是深度神经网络就可以采用更少的神经元来毕竟函数而且可能达到更好的效果。对于深度神经网络每一层神经网络实际上实现了信息的过滤但是需要在最开始的时候能够捕获所有的信息这样才能在接下来的神经网络中信息不断的得到补偿进而反应事物否则一开始信息就没有捕获全面这样在不完全的信息中再深的神经网络也没有办法完成信息的恢复。
    在信息的捕获中实际上激活函数骑着重要的作用主要通过梯度实现因此在梯度饱和的时候失去了信息捕获的能力。这就意味着选择激活函数也是重要的其中sigmoid函数就存在信息饱和的情况。
    其实返回来看对于激活函数sigmoid当输入特别大时将会一个阶跃函数实际上就相当于实现了门的作用。
    就这样从布尔函数、分类器、连续函数完成了一步步的转化与递进。
[展开全文]

1⃣.感知机一般包含的元素

  1. 输入
    要求输入的是实值
  2. 仿射&线性
    放射函数满足f(ax+by)=af(x)+bf(y)f(ax+by)=af(x)+bf(y),这就意味着仿射函数一定穿过原点但是线性函数就不一定穿过原点
  3. 偏置
  • 类似一个阈值来激活感知机
  • 偏置也可以视为一个权重只不过对应的输入元素视为1
  1. 激活函数
    激活函数并非一定要是阈值函数。激活函数包括阶跃函数、sigmoid、tanh、Relu等

2⃣前馈神经网络

重点是没有循环在信号传播的过程中永远不会返回前面一个信号。这就相当于所有的计算都是单向的非循环的。当然循环神经网络也是非常重要的

3⃣有了神经网络如何使得神经网络能够按照特定的规则进行执行

学习神经网络的过程就是决定参数值的过程这个过程实际上就是使得神经网络能够输出我们想要的函数。前提是我们的这个神经网络有能力构建我们的目标函数。

0) 训练神经网络的结果可能得到的函数不是唯一的如何衡量所得到的函数好坏就需要指定一定的度量方式

1在实际中衡量预测值与真实值之间的差距并非只有一种度量方式重要的是多次之间的差异不能存在抵消的情况

2神经网络在逼近函数的过程中我们提供的数据不能是函数中每一个点的值这就意味着我们的训练样本实际上一个抽样的样本

样本训练过程中要求一个x只能对应一个唯一的输出值

4⃣多层感知机

感知机实际上就是寻找到一个超平面将正负样本进行分开其中权重与超平面是一个正交的关系在更新权重的过程中采取的策略就是权重方向指向正样本远离负样本。

在整个更新权重的过程中修正权重W的次数是有限的不会超过(R/γ)^2,其中R是最远的那个训练样本的距离γ是训练样本与超平面最近的距离.

 

 

 

 

 

 

 

[展开全文]

应用:语音识别、机器翻译、图像分割、自动驾驶、下棋。照片转化为文字描述

不再是简历上的加分项,没有会扣分。

 

每天都有巨大的变化。

课程将包括理论与实践。

介绍相关课程信息。

[展开全文]

 

 

神经网络就相当于一个黑盒子,可以通过构建这个盒子,实现语言识别、视频描述、游戏决策。

起源:联结主义。

信息储存在神经元与神经元的连接中。

[展开全文]

第二课笔记:本节课主要介绍了神经网络的发展历史。起源于对大脑神经元的模仿,最开始只是简单的单独感知机模型,可以完成与或非布尔运算,但是不能完成异或运算。之后将感知机组成网络,多层感知机就出现了!多层感知机可以联结多个计算模型以此来耦合复杂布尔函数。之后的发展便是从布尔型机器,到可以处理实数,从硬阈值到软阈值,至此MLP(多层感知机)可用于图像分类,甚至是复杂函数的拟合。

所谓往往越简单的越是强大!小小的感知机在组成MLP后,会有很强大的功能。

[展开全文]

进入小组观看课程

更多 >>
以下为该课程相关学习小组,您可以选择任意小组加入学习课程并交流

SMART Lab学习小组

成员:1泡泡:0

点击观看
生物医学小分队

成员:164泡泡:67

点击观看
CUM 11-485/785 NLP学习小组

成员:278泡泡:160

点击观看