首页 AI学术青年与开发者社区

【中文字幕】2017春季CS231n 斯坦福深度视觉识别课

开课时间:2017年11月10日
开课时长:讲座共有6个lecture,3个 Guest Talk,已完结。加入小组即可立即观看(完全免费):https://ai.yanxishe.com/page/groupDetail/19。
免费课 基础入门
现价: 免费
该课程已关闭

【复习】

一、KNN 数据驱动方式学习决策器

二、线性分类器:(参数分类)

每一个像素每一个分类在权重矩阵中都有对应

所以可以得到每个像素在每个分类中的重要性大小

1、可以看成每个分类的模板,权重的每一行代表一个类的模板,将每一行取出来以后可以变成模板图像

2、学习像素在高维空间的分类边界

【本节】

Loss function=1/Nsum(Li)

N是所有样本集

多分类SVM的损失函数是:

如果正确分类的分数高于别的分类的话是令人欣喜的情况,如果没有高出我们想要的margin就会产生损失

 

训练的时候,首先初始化权重矩阵,都一样的时候分数也都一样,所以损失函数为1,所有的分类损失和应该是等于c-1(c是分类数),可以用这个来验证程序是否有错,因为初始化的结果应该是这个,所以训练之前要要心中有数

 

hinge loss vs square loss

加上平方使得错误被放大, 说明你在意这个错误,所以用哪个是根据你的在意情况来确定的

 

使得L为0的W不唯一,2W验证,因为此时只要求能拟合数据就行了,但是这个模型不够好,所以要加上penalty

soft penalty 正则项可以

BN、Dropout等也是正则项

 

softmax  使得正确的类别概率接近于1

 

 

 

[展开全文]

【损失函数和优化】

怎么得到线性函数里的W

【多分类SVM】

 

[展开全文]

损失函数

L = 1/N * L(f, yi)

 

[展开全文]

相关课程

开课日期:直播已结束,可回看开始
智能驾驶 基础入门 87051
开课日期:开始
机器学习 基础入门 111844

授课教师

暂无教师
微信扫码分享课程