首页 AI学术青年与开发者社区

Hinton《面向机器学习的神经网络》中文版

课时列表 72课时
  • 机器学习与神经网络课程概述
  • 课时1 : 为什么我们要学习机器学习
    13:31
  • 课时2 : 什么是神经元网络
    08:48
  • 课时3 : 几个简单的神经元模型
    08:40
  • 课时4 : ANN的MNIST学习范例
    05:05
  • 课时5 : 机器学习算法的三大类
    06:01
  • 神经网络架构的主要类型概述
  • 课时6 : 神经网络构架介绍
    03:39
  • 课时7 : 感知器
    03:45
  • 课时8 : 感知器的几何空间解析
    06:41
  • 课时9 : 感知器的原理透析
    05:26
  • 课时10 : 感知器的局限性
    14:50
  • 线性/逻辑神经网络和反向传播
  • 课时11 : 线性神经元的权值收敛
    12:17
  • 课时12 : 线性神经元误差曲面分析
    05:24
  • 课时13 : 逻辑神经元的学习规则
    04:18
  • 课时14 : 反向传播算法解析(一)
    12:12
  • 课时15 : 反向传播算法解析(二)
    10:11
  • 学习特征词向量
  • 课时16 : 学习预测词
    12:54
  • 课时17 : 初识神经认知学
    04:48
  • 课时18 : Softmax输出函数
    07:42
  • 课时19 : 语音识别模型
    08:14
  • 用神经网络进行物体识别
  • 课时20 : 视觉识别的难点
    05:02
  • 课时21 : 如何达到视觉不变性
    06:20
  • 课时22 : 应用于数字识别的卷积网络
    16:23
  • 模型优化:如何加快学习
  • 课时23 : 小批量梯度下降法概览
    08:44
  • 课时24 : 小批量梯度下降法的一些技巧
    13:37
  • 课时25 : 动量方法
    09:04
  • 课时26 : 针对网络中每个连接的自适应学习步长
    06:06
  • 课时27 : Rmsprop算法
    12:00
  • 循环神经网络RNN(一)
  • 课时28 : 序列模型概述
    17:39
  • 课时29 : 用反向传播训练RNNs
    06:39
  • 课时30 : 训练RNN的一个例子
    06:31
  • 课时31 : 训练RNN的难点
    08:00
  • 课时32 : LSTM网络
    09:31
  • 循环神经网络(二)
  • 课时33 : 用乘法连接进行字符串建模
    14:51
  • 课时34 : 用HF方法学习预测
    12:40
  • 课时35 : Echo State Networks
    09:53
  • 提高网络模型的泛化能力
  • 课时36 : 提高泛化能力概述
    12:00
  • 课时37 : 限制权重带大小
    06:39
  • 课时38 : 正则化防止过拟合
    07:47
  • 课时39 : 完全贝叶斯方法介绍
    11:06
  • 课时40 : 权值衰减的贝叶斯解释
    11:08
  • 课时41 : MacKay的确定权值惩罚项的方法
    03:47
  • 结合多重神经网络提高泛化能力
  • 课时42 : 在做预测时为什么要结合多个模型
    13:26
  • 课时43 : 多专家模型
    13:32
  • 课时44 : 完全贝叶斯方法
    07:44
  • 课时45 : 完全贝叶斯方法的实际应用
    07:01
  • 课时46 : Dropout
    08:51
  • Hopfield网络和玻尔兹曼机
  • 课时47 : Hopfield网络
    13:17
  • 课时48 : 处理虚拟最小值
    11:18
  • 课时49 : 隐藏单位中的Hopfield网络
    09:55
  • 课时50 : 用随机单位来改进搜索
    10:40
  • 课时51 : 玻尔兹曼机
    12:00
  • 限制玻尔兹曼机
  • 课时52 : 波尔兹曼机器学习
    12:32
  • 课时53 : 获取统计信息的更有效的方式
    15:04
  • 课时54 : 限制玻尔兹曼机
    11:10
  • 课时55 : RBM学习案例
    07:31
  • 课时56 : 用于协同过滤的RBM
    08:32
  • 深度置信网络
  • 课时57 : 反向传播算法的历史发展
    10:09
  • 课时58 : 置信网络
    12:51
  • 课时59 : wake-sleep算法
    13:31
  • 生成预训练的深度神经网络
  • 课时60 : 通过堆叠RBM进行功能层学习
    17:50
  • 课时61 : DBNs的判定性学习
    09:56
  • 课时62 : 判定性微调期间会发生什么?
    08:55
  • 课时63 : 用RBM建模实值数据
    10:12
  • 课时64 : RBM是无限的S形信任网
    17:28
  • 神经网络的模型分层结构
  • 课时65 : 从PCA到自动编码器
    08:14
  • 课时66 : 深度自动编码器
    04:27
  • 课时67 : 深度自动编码器,用于文档检索
    08:35
  • 课时68 : 散列语义
    09:06
  • 课时69 : 用于图像检索的二进制码学习
    09:53
  • 深度神经网络的应用
  • 课时70 : 图像和字幕的联合模型学习
    09:21
  • 课时71 : 分层坐标框架
    09:56
  • 课时72 : 超参数的贝叶斯优化
    13:46

相关课程

开课日期:深度学习鼻祖Hinton公开课视频,随到随学开始
免费课 32123
扫码加入课程交流群