首页 AI学术青年与开发者社区

机器学习必修之数学基础系列课程

开课时间:录播回放,在线学习
开课时长:线上视频课程,随到随学
机器学习 基础入门
会员免费
现价:¥699.00
原价:¥999.00

  开通会员,立省699元 立即开通

  当前课程,会员领券立减59元>>

1、向量是带方向的标量,所以它的一个自然属性就是有序。

关于这一点,可以联系排列组合的概念理解:

(1)所谓排列,就是指从给定个数的元素中取出指定个数的元素进行排序。

(2)组合则是指从给定个数的元素中仅仅取出指定个数的元素,不考虑排序

因此,关于向量相等的条件也就很清楚了,必须得一一相等。

2、向量内积(点乘,数量积)

(1)计算结果是一个数值。

(2)引入的素材是物理中的做功,功表示能量,其大小是数值。因此内积的结果也是数值。

(3)向量内积可用来判断两个向量是否正交(相互垂直)

3、向量范数

(1)之所以称为范数而不是长度,是因为生活中不同的应用场景所对应的“规则”不同, 称谓也不同,因此以“范数”来广泛定义。可与张量的概念相类比。

(2)0范数不是范数,因为它违反了向量范数定义的第2个条件——齐次性。

4、线性相关与线性无关

(1)向量组的秩

(2)极大无关组

5、由向量引出矩阵的概念

5.1 矩阵范数

6、作业

 

 

 

[展开全文]

关于齐次性的思考,这里的解释应该会有帮助。转自:https://www.zhihu.com/question/25552461/answer/34618178
 
齐次性 是英文 Homogeneous 的中文翻译. 我其实对这个翻译不太赞同,像我就更不不知道齐次是什么意思. 一查字典,就是所homogeneous的翻译. 好吧. 完美逻辑.
看看homoegeneous 的英文翻译:
Homogeneous is used to describe a group or things which has members or parts that are all the same.
 
我翻译为: 用来描述一组具有相同"member" or "part"的形容词. 不完全正确的讲,就是类似的东西. 具有相同属性的东西,因此数学中一旦某些方程, 矩阵, 函数, 只要它们之间有相似性, 那么都可能被翻译成齐次.
 
应为最近专注于机器人的学习, 遇到了齐次坐标系. 我们来看看齐次坐标系是怎么和齐次**上的.
先说齐次坐标系是什么, 再来解释它为什么被称之为齐次坐标系.
安装书上的说法, n维空间的齐次坐标系是一个n+1维空间的东西.
例如, 3维空间中的点(x,y,z)对应的齐次坐标系是(x,y,z,w);
应为4维空间对于我的智商来说实在是太晦涩了, 我们还是用降维武器来看看2维空间对应的齐次坐标吧.
对于2维空间,它的坐标为(x,y),对应的齐次坐标就是(x,y,w).
想象一下, 在w=1的地方, 就是我们对应的x,y平面,标准的2D平面.
实际上,2D点(x,y)用齐次坐标表示就是(x,y,1),而对于那些不在w=1平面上的点,者将他们投影到w=1的平面上,所以齐次坐标(x,y,w)映射的实际2D点为
(x/w,y/w).
因此,给定一个2D点(x,y),齐次空间中有无数多个点与之对应.所有的点的形式都为(kx,ky,k).这些点构成了一条穿过齐次原点的直线.
 
到这里, 出现了一群(无数个)对应的点, 它们都对应是2D点在这个n+1(n=2)维空间的坐标, 所以称之为齐次坐标.它们都有同一个性质, 那就是在w=1投影的时候,
都在(x,y)点. 好了, 这就是齐次坐标名字的来历了, 如果大家去看看wikipeida,那么齐次坐标还有一个名称叫做projective coordinates, 所以叫什么不重要, 最主要的是看它是什么.
 
 
再来吐槽一下大学教育吧,这些明明应该是我们在学习线性代数的时候应该讲明的东西, 只有现在才能慢慢回去一点一点的体会数学的道理.
 
[展开全文]

笔记打卡,重要概念汇集补充!

[展开全文]

施密特正交化就是把线性无关的向量,通过正交化,得到正交基。

施密特正交化的几何意义:

https://www.zhihu.com/question/60689540

[展开全文]

向量的内积相当于投影

向量范数常用有三种

1.1范数  向量各个分量绝对值加起来

2.2范数  欧式距离

3.无穷范数 绝对值最大的分量的绝对值

施密特正交化:将线性无关向量组转换为正交向量组

向量组的极大无关组可能不止一个,但他们的向量个数是相同的

矩阵的范数是针对方阵

矩阵的常用范数同样有3种:

1.1范数为矩阵列向量的1范数的最大值,也被成为矩阵的列范数

2.2范数为根号下A(转置)A的最大特征值,也成为谱范数

3.无穷范数为矩阵行向量的1范数的最大值,也被成为矩阵的行范数

[展开全文]

1. 行向量 vs 列向量

    表示区别:行向量用逗号 , 隔开;

                     列向量用省略号

2. 向量的数乘的几何意义:拉伸

3. 向量的內积的几何意义:

    內积=点积=数乘积

4. 向量范数的三个性质:正定、齐次、不等式

5. 0范数是伪范数;违反齐次原则

6. 线性相关 vs 线性无关

如果信号向量是线性相关的,则可以去掉向量的一个分量。

线性无关:a不能线性表示b

7. 线性无关刻画信息无冗余。正交化则是线性无关最好的方式。

[展开全文]

相关课程

开课日期:录播回放,在线学习开始
机器学习 基础入门 35796
开课日期:深度学习鼻祖Hinton公开课视频,随到随学开始
免费课 25413

授课教师

广东财经大学特聘教授;香港城市大学数学系博士
微信扫码分享课程