线性代数:每个数据科学家的必知概念(上)
线性代数:每个数据科学家的必知概念(上)
线性代数是所有数据科学和机器学习任务的基石,它是将理论模型转化为实际解决方案的语言,体现了能够利用算法从数据中学习的准则。
线性代数在数据科学中的应用包括:
- 数据表示:用一种结构化的方式来组织和操作数据,将复杂数据集表示为矩阵
- 降维:利用PCA线性代数技术减少变量数量,以提高模型效率而不失重要信息
- 优化:梯度下降,作为机器学习的核心引擎,使用线性代数找到函数的最小值
- 特征工程:利用线性变换和矩阵操作从现有数据中创建新特征
- 相似性度量:将数据嵌入并存储为向量,在当前推荐系统和AI聊天机器人中使用
让我们深入探讨线性代数的核心概念。
向量
向量是线性代数的基本构建块。通常有三种方式来考量向量:
- 物理学视角:向量是指向空间中的箭头,由长度和方向定义。平面上的向量是二维的,生活空间中的向量是三维的。
- 计算机科学视角:向量是有序的数字列表,列表的长度决定了维度。
- 数学家的视角:向量可以是任何东西,只要两个向量可以相加并且可以被数字乘(即标量乘法)。
单位向量
单位向量是幅度为1的向量,通常用它来表示一个向量的方向,而无需考虑其大小。
向量操作
向量相加
两个向量的加法构成一个新的向量,逐分量相加。
标量相乘
标量相乘是一个向量乘以一个标量(一个数字),结果是一个方向与原向量相同(如果标量是负数则相反)的向量,其大小由标量的绝对值进行缩放。
点积
点积是两个向量的欧几里得大小的乘积和它们之间夹角的余弦,反映了向量的长度和它们的方向关系。
直观地说,可以将点积公式想象成将一个向量的定向增长应用到另一个向量上,或者“一个向量给另一个向量提供了多少动量/能量?”。结果是使得原向量变得更强(正向,负向或0)。
如果两个向量的点积为0,则说明这两个向量是正交的。
可以用一个有趣的类比做进一步解释:
假设红色向量是速度,蓝色向量是助推垫的方向,点积是获得的助推量,助推力数值越大,意味着能获得更强的动力。
使用方程式来表示,|a| 是来速,|b| 是最大助推,获得的助推百分比是 cos(θ), 总体助推为 |a| |b| cos(θ)。
向量空间
向量(或线性)空间是任何可以相互做加法和乘法(称为标量)的向量集合。
满足一系列公理的向量V 称为向量空间。
零空间(核)
零空间是一组向量的集合,当它们与矩阵相乘时,结果为零向量。
将它表示为方程 Ax = 0 的解,其中 A 是给定的矩阵。
假设一个二维空间中有两个向量,可以将矩阵的零空间可视化为一个子空间,当与矩阵相乘时,向量将折叠到原点(零向量)。
张成空间
给定一对向量v 和 w 的线性组合av + bw构成的所有可能向量的集合,其中 a 和 b 是实数。大多数向量对经过线性组合之后,可以到达二维向量平面上的任意点。
当两个向量恰好排成一行时,它被限制在通过原点的单条线上。
张成空间的概念是基的概念的基础。
基
基是一组线性独立的向量,它们组成整个向量空间,向量空间中的每个向量都可以表示为基向量的线性组合。将它们想象为空间中所有其他向量的构建块。将单个向量想象为箭头,对于一组向量集,将其想象为点,基向量对可以张成整个二维平面。
线性独立
如果集合中的向量不能用其他向量的线性组合表示(例如,x 和 y 的线性组合将是任何形式的 ax + by,其中 a 和 b 是常数),则一组向量是线性独立的。
资源
- Hackers 通道
- 程序员必学计算线性代数
- 应用机器学习的线性代数入门
- 可视化
- 图形线性代数-一种新的LA方法
- 线性代数的本质3BluelBrown-惊人的动画,可视化的概念
- 矢量化
- 洞察数学
- 论文/课程/教科书
- 深度学习所需的矩阵演算
- 数据分析、信号处理和机器中的矩阵方法 |麻省理工学院开放式课程
- 线性代数全答对
- 4页线性代数.Pdf