首页 AI学术青年与开发者社区

计算机视觉基础入门课程(从算法到实战应用)

开课时间:所有课时已更新完成,可随时开始学习
开课时长:24个课时,12次课
机器学习 基础入门
会员免费
现价:¥699.00
原价:¥999.00

  开通会员,立省699元 立即开通

  当前课程,会员领券立减59元>>

该课程已关闭

 卷积神经网络

AlexNet,VGGNet,GoogleNet,ResNet

卷积、池化、全连接、softmax

VGGNet层数更多,VGG16具有16个权重层

VGGNet中采用3x3代替AlexNet中的11x11,两个3x3的滤波器等价于一个5x5的滤波器,((w-3)/1+1-3)=(w-5)/1+1,但是需要学习的参数变少了。feature map的尺寸不断减小,但是个数增多。

GoogleNet更深,没有全连接层,参数减少。增减inception模块,用横向扩展取代纵向加深。

ResNet:学习的是期望的输出与输入之间的残差。能够只能增加到很深的层数。

训练技巧、防止过拟合:

1、数据增强:水平翻转、随机裁剪和平移、颜色、光照变换

2、Dropout

3、 L1、L2正则化

4、Batch Normalization 批归一化

 

[展开全文]
  • 图像分类
  1. 神经网络原理
  2. 卷积神经网络介绍
  3. 利用caffe搭建深度网络做图像分类
图像分类
泛化能力
     1.图像特征:color,local shape,global  shape,texture.
       传统的特征方法:
            SITF(local shape用在图像分类/匹配,128维-64)
            HoG(用在检测,处理形状比较好32维)
            LBP(人脸)
            Harr(很多组滤波器,检测边缘比较强,处理形状比较好)
        简单的识别效果挺好 www.vlfeat.org/  提供代码进行检测
     2.支持向量机SVM
        CNN特征:学习出来的,通过大量的数据学习,会有很好的泛化能力
        通过神经网络学习出来的
神经网络做图像分类
  1.  神经网络的构成:参考机器学习内容
  2.  卷积滤波的计算,输出尺寸=(输入尺寸+2*pad-kernel_size)/步长+1
  3.  池化层(pooling layer)最大值池化:特征更加紧凑,同时具有位移不变性
  4.  全连接层:作为输出层
       常见损失函数:sigmoid, softmax, euclidean, contrastive, triplet loss
 
常见图像分类的卷积神经网络介绍(CNN)
  • AlexNet
5个卷积成,2个圈连接层
  • VGGNet
可以有11,13,16,19层
  • GoogleNet
  • ResNet
训练技巧,防止过拟合
1.数据增强(data augmentation):水平反转,随机裁剪和平移变换,颜色、关照变换
2.Dropout
3.L1,L2正则化项
4.Batch Normalization
 
 
 
 
 
 
 
 
 
 
 
 
 
 
[展开全文]

AlexNet : 5 个卷积层 2 个全连接层

VGGNet : 层数更多, feature map 维度不断在增加尺寸在减少

GoogleNet : 使用了1*1的卷积,用来降维

    average pooling

ResNet : 使用残差模块,突破了深度极限

 

训练技巧 - 预处理:

1. 数据增强(Data augumentation):

水平翻转, 随机裁剪, 平移变换, 颜色光照变化

训练技巧 - 防止过拟合:

2. Droupt 

其他技巧:

1. 正则化

2. batch Normalization

 

caffe :

主要的组成部分 Blob layer Net

 

[展开全文]

深度学习网络:

AlexNet、VGGNet、GoogleNet和Resnet

vggnet滤波器的尺寸减小但个数增加,深度增加;

GOOGLEnet发明了inception网络的宽度增加,去掉了全连接层,降低参数;

Resnet发明了参差层,网络的深度急剧增加,避免了梯度消失。

 

[展开全文]

1. 卷积神经网络介绍

2. 用caffe实战——图像分类

【问题1】卷积核大小的选择动机?

【问题2】con3-64?

3X3的卷积核,64通道

【问题3】什么是残差网络?

H(x) = F(x) + x

例:

5映射到5.1

F'(5)=5.1

H(5)=F(5)+5=5.1

F(x)=0.1

F'为引入残差前的映射,F为引入残差后的映射

【问题4】为什么说FC的参数过多,容易过拟合?

【问题5】怎么理解不同平台下(caffe版)的Alexnet的权重?

[展开全文]

AlexNet:5个卷机层、2个全连接层

VGGNet:

GoogleNet:

趋势:层数越来越多、深度越来越深、卷积核尺寸越来越小、参数越来越少

 

[展开全文]

相关课程

开课日期:深度学习鼻祖Hinton公开课视频,随到随学开始
免费课 29882
开课日期:2020-07-04 08:50开始
4906

授课教师

暂无教师
微信扫码分享课程