线代笔记整理

写在前面: 这份讲义是笔者在学习时的一些思考和题目复盘。尤其想说的是,在2025-2026年的期末考里,讲义里不少核心思路和题目都“押中”了。

关于这份讲义: 笔记的初稿是笔者自己整理的,后来在Gemini的帮助下重新梳理了逻辑、调整了排版。

比起复杂的行列式计算,笔者总觉得几何直觉(Geometric Intuition) 更自然,也更能帮助理解本质。所以如果你在读的时候,发现里面有不少从几何角度出发的解释——嗯,那大概就是笔者个人偏好了。


🛫 第 零 章:矩阵乘法的本源 (The Origins)

可以用以下五种视角进行矩阵运算的理解。

0.1 矩阵乘向量:\(Ax\) 的两种核心视角

\(A = \begin{pmatrix} \mathbf{c}_1 & \mathbf{c}_2 & \dots & \mathbf{c}_n \end{pmatrix}\),其中 \(\mathbf{c}_i\) 是列向量。

视角 A:列的线性组合 (The Column Picture) —— 最重要!

\[A \mathbf{x} = \begin{pmatrix} \mathbf{c}_1 & \mathbf{c}_2 & \dots & \mathbf{c}_n \end{pmatrix} \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix} = x_1 \mathbf{c}_1 + x_2 \mathbf{c}_2 + \dots + x_n \mathbf{c}_n\]

  • 直觉: \(Ax\) 是对 \(A\)列向量进行线性组合。

  • 应用:

    • 解方程 \(Ax=b\) 实际上是在问“能不能用 \(A\) 的列向量组合出 \(b\)?”(即 \(b\) 是否在列空间里)。

    • 列空间 \(C(A)\) 就是所有这些组合 \(Ax\) 构成的集合。

视角 B:行的点积 (The Row Picture)

\[A \mathbf{x} = \begin{pmatrix} \mathbf{r}_1^T \\ \vdots \\ \mathbf{r}_m^T \end{pmatrix} \mathbf{x} = \begin{pmatrix} \mathbf{r}_1^T \cdot \mathbf{x} \\ \vdots \\ \mathbf{r}_m^T \cdot \mathbf{x} \end{pmatrix}\]

  • 直觉: 看作 \(x\)\(A\) 的每一行方向上的投影。

  • 应用:\(Ax=0\) 中,意味着 \(x\) 必须垂直\(A\) 的每一行(所以零空间 \(\perp\) 行空间)。


0.2 向量乘矩阵:\(y^T A\)

\[\mathbf{y}^T A = \begin{pmatrix} y_1 & \dots & y_m \end{pmatrix} \begin{pmatrix} \mathbf{r}_1^T \\ \vdots \\ \mathbf{r}_m^T \end{pmatrix} = y_1 \mathbf{r}_1^T + \dots + y_m \mathbf{r}_m^T\]

  • 直觉: \(y^T A\) 是对 \(A\)行向量进行线性组合。

  • 口诀: 左乘行组合,右乘列组合。


0.3 矩阵乘矩阵:\(AB\) 的四种视角

\(A_{m \times n}\)\(B_{n \times p}\)

视角 A:列操作 (Column-wise) —— \(A\) 作用于 \(B\) 的列

\(B\) 看作一堆列向量 \(\begin{pmatrix} \mathbf{b}_1 & \dots & \mathbf{b}_p \end{pmatrix}\)

\[AB = A \begin{pmatrix} \mathbf{b}_1 & \dots & \mathbf{b}_p \end{pmatrix} = \begin{pmatrix} A\mathbf{b}_1 & \dots & A\mathbf{b}_p \end{pmatrix}\]

  • 直觉: \(AB\) 的第 \(j\) 列,是 \(A\)\(B\) 的第 \(j\) 列做变换。

  • 结论: \(AB\) 的列空间是 \(A\) 的列空间的子空间。

视角 2:行操作 (Row-wise) —— \(B\) 作用于 \(A\) 的行

\(A\) 看作一堆行向量。

\[AB = \begin{pmatrix} \mathbf{a}_1^T \\ \vdots \\ \mathbf{a}_m^T \end{pmatrix} B = \begin{pmatrix} \mathbf{a}_1^T B \\ \vdots \\ \mathbf{a}_m^T B \end{pmatrix}\]

  • 直觉: \(AB\) 的第 \(i\) 行,是 \(B\)\(A\) 的第 \(i\) 行做组合。

  • 结论: \(AB\) 的行空间是 \(B\) 的行空间的子空间。

视角 3:列乘行 (Outer Product Expansion) —— 高阶大招

这是谱分解和SVD的灵魂。

\[AB = \sum_{k=1}^n (\text{A的第k列}) \times (\text{B的第k行}) = \mathbf{c}_1 \mathbf{r}_1^T + \mathbf{c}_2 \mathbf{r}_2^T + \dots + \mathbf{c}_n \mathbf{r}_n^T\]

  • 直觉: 矩阵乘法是 \(n\)秩1矩阵的和。

  • 应用:

    • 谱分解: \(A = \sum \lambda_i q_i q_i^T\) 其实就是这个视角。

    • SVD: \(A = \sum \sigma_i u_i v_i^T\) 也是这个视角。

    • 如果只需近似矩阵,取前几项相加即可(主成分分析)。

0.4 变换的黄金法则 (The Golden Rule)

这是 Gilbert Strang 老爷子反复强调的:

Left Multiply = Row Operation (左乘做行变换)

Right Multiply = Column Operation (右乘做列变换)

  • 想对 \(A\) 做行变换(高斯消元)?

    \(A\) 的左边乘一个初等矩阵 \(E\)

    \[EA = \text{对A的行进行组合}\]

  • 想对 \(A\) 做列变换?

    \(A\) 的右边乘一个初等矩阵 \(E\)

    \[AE = \text{对A的列进行组合}\]

举个栗子🌰:

  • \(A^{-1}A = I\)\(A^{-1}\) 在左边不断乘,相当于做初等行变换把 \(A\) 变成 \(I\)

  • \(AP = B\) \(P\) 在右边,说明 \(B\)\(A\) 的列的重新排列或组合(比如交换两列)。


🚀 第一章:分块矩阵与行列式 (The Block Art)

1.1 分块对角/反对角矩阵求逆

遇到分块矩阵,不要死算,看结构。

  • 分块对角阵求逆: 直接对角线求逆。

    \[ \begin{pmatrix} A_1 & & \\ & \ddots & \\ & & A_n \end{pmatrix}^{-1} = \begin{pmatrix} A_1^{-1} & & \\ & \ddots & \\ & & A_n^{-1} \end{pmatrix}\]

  • 分块反对角阵求逆: 注意! 逆矩阵的顺序是反过来的,且位置维持反对角。

    \[ \begin{pmatrix} & & A_1 \\ & \dots & \\ A_n & & \end{pmatrix}^{-1} = \begin{pmatrix} & & A_n^{-1} \\ & \dots & \\ A_1^{-1} & & \end{pmatrix}\]

1.2 舒尔补公式 (Schur Complement) —— 行列式降维神器

口诀: 提主元,扣尾款。

\(A\) 可逆时(以 \(A\) 为主元):

\[\begin{vmatrix} A & B \\ C & D \end{vmatrix} = |A| \cdot |D - C A^{-1} B|\]

\(D\) 可逆时(以 \(D\) 为主元):

\[\begin{vmatrix} A & B \\ C & D \end{vmatrix} = |D| \cdot |A - B D^{-1} C|\]

直觉来源: 这本质上是分块高斯消元:

\[\begin{pmatrix} I & 0 \\ -CA^{-1} & I \end{pmatrix} \begin{pmatrix} A & B \\ C & D \end{pmatrix} = \begin{pmatrix} A & B \\ 0 & D - CA^{-1}B \end{pmatrix}\]

1.3 降阶公式 (Sylvester’s Determinant Identity)

当矩阵维度不同时(\(A_{m \times n}, B_{n \times m}\)),这是连接两个维度的桥梁。

\[|\lambda E_m - AB| = \lambda^{m-n} |\lambda E_n - BA|\]

特例(\(\lambda=1\)):

\[|E_m - AB| = |E_n - BA|\]

应用: 如果 \(A\) 是列向量 \(u\)\(B\) 是行向量 \(v^T\),则 \(AB\) 是大矩阵,\(BA\) 是标量!

1.4 秩1修正行列式 (Matrix Determinant Lemma)

这是上述降阶公式的推论,用于处理“单位阵+秩1矩阵”。

\[|A + \mathbf{u}\mathbf{v}^T| = |A|(1 + \mathbf{v}^T A^{-1} \mathbf{u})\]

常见考题形式(\(A=I, u=\alpha, v=-\alpha\)):

\[|I - \alpha\alpha^T| = 1 - \alpha^T \alpha\]


🛠 第二章:矩阵求逆进阶 (Inverse Pro)

2.1 秩1修正求逆 (Sherman-Morrison Formula)

\[(A + uv^T)^{-1} = A^{-1} - \frac{A^{-1}uv^TA^{-1}}{1 + v^TA^{-1}u}\]

特例(当 \(A=I\)):

\[(I - uv^T)^{-1} = I + \frac{uv^T}{1 - v^T u}\]

记忆法:

  1. 符号相反(左边加,右边减)。

  2. 分母是标量 \(1+\text{trace}\)

  3. 分子被 \(A^{-1}\) 夹在中间。

2.2 二阶矩阵求逆口诀

\[\begin{pmatrix} a & b \\ c & d \end{pmatrix}^{-1} = \frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}\]

口诀: 主对调,副变号,除以行列式。


📈 第三章:秩与不等式 (Rank & Inequalities)

3.1 秩的重要连等式

\[r(A) = r(A^T A) = r(A^T) = r(AA^T)\]

推论: \(Ax=0\)\(A^TAx=0\) 是同解方程组。(最小二乘法的理论基础)

3.1.0 拓展:投影矩阵与最小二乘

现实世界是不完美的。

当方程组 \(Ax=b\) 无解时(比如 \(b\) 不在 \(A\) 的列空间里),工程思维不是“两手一摊”,而是 “退而求其次” 。

我们找不到精确解,但我们可以找“最近的解”(误差最小的解)。

3.1.1 最小二乘法 (Least Squares)

  • 问题: \(b\) 飞出去了,不在 \(A\) 的管辖范围(列空间)里。

  • 目标:\(A\) 的列空间里找一个替身 \(p\),让 \(p\)\(b\) 最近。几何上,这意味着 \(b-p\)(误差向量 \(e\))必须垂直\(A\) 的列空间。

  • 核心方程 (Normal Equation): \[A^T A \hat{x} = A^T b\]

3.1.2 投影矩阵 (Projection Matrix \(P\))

  • 公式:

    \[P = A(A^T A)^{-1} A^T\]

    (推导:因为 \(p = A\hat{x}\),把上面解出来的 \(\hat{x}\) 带进去即得)

  • \(A\) 为列向量 \(a\)(投影到直线): \[P = \frac{aa^T}{a^Ta}\]

3.1.3 灵魂性质:幂等性 (\(P^2 = P\))

  • 代数意义: \(P^2 = P \cdot P = P\)

  • 几何直觉:

    • 把一个向量投影到桌面上(变成了影子)。

    • 再对这个影子做一次投影。

    • 结论: 投影两次 = 投影一次。

3.2 秩的不等式链条

  • 和的秩: \(r(A+B) \le r(A) + r(B)\)

  • 积的秩: \(r(AB) \le \min \{ r(A), r(B) \}\)

  • 分块矩阵的秩:

    \[ \max \{r(A), r(B)\} \le r(A \quad B) \le r(A) + r(B)\]

    \[ r \begin{pmatrix} A & 0 \\ 0 & B \end{pmatrix} = r(A) + r(B)\]

    \[ r \begin{pmatrix} A & 0 \\ C & B \end{pmatrix} \ge r(A) + r(B)\]

  • 西尔维斯特不等式 (Sylvester): \(r(AB) \ge r(A) + r(B) - n\) (其中 \(A_{m \times n}, B_{n \times s}\)


🌀 第四章:特征值与对角化 (Eigenvalues)

4.0 特征值两大结论

  • 迹 (Trace): \(\sum \lambda_i = \text{tr}(A) = \sum a_{ii}\)

  • 行列式 (Determinant): \(\prod \lambda_i = |A|\)

4.1 普通矩阵可对角化判据

\(n\) 阶矩阵 \(A\) 可对角化 \(\iff\)\(n\) 个线性无关特征向量。

判别流程:

  1. 无重根: \(\lambda\) 互异 \(\Rightarrow\) 必可对角化。

  2. 有重根: 若 \(\lambda_i\)\(k\) 重根,必须检查 几何重数 == 代数重数。

    即:\(n - r(A - \lambda_i I) = k\)

    (缺一个特征向量都不能对角化!)

4.2 秩1矩阵的特征值 (\(\alpha \beta^T\))

对于矩阵 \(C = \alpha \beta^T\)(秩为1):

  • 特征值 \(\lambda_1\) 等于迹,即 \(\text{tr}(C) = \beta^T \alpha\)

  • 其余特征值: 全为 \(0\)

  • 特征向量:

    • 对应非零特征值的特征向量是 \(\alpha\)\(C \alpha = \alpha (\beta^T \alpha)\))。

    • 对应0特征值的特征向量是所有垂直于 \(\beta\) 的向量。

4.3 秩1修正矩阵 (\(E - k\alpha\alpha^T\)) 的特征值

这类矩阵在几何上对应“反射”或“压缩”,在Householder变换中极常见。

对于矩阵 \(B = E - k \alpha \alpha^T\)\(E\)为单位阵):

  1. 特征值:

    • 主特征值: \(\lambda_1 = 1 - k(\alpha^T \alpha)\) (对应特征向量 \(\alpha\))。

    • 重特征值: 其余 \(n-1\) 个特征值均为 \(1\) (对应特征向量为所有垂直于 \(\alpha\) 的向量)。

  2. 行列式: \(|B| = \prod \lambda_i = 1 - k(\alpha^T \alpha)\)

  3. 几何直觉:

    • 矩阵只在 \(\alpha\) 方向上进行了缩放(缩放倍数为 \(1 - k|\alpha|^2\))。

    • 在垂直于 \(\alpha\) 的平面上,它就是单位阵 \(E\)(没动)。

一般推广 (Rank-1 Update):

对于 \(C = A + \mathbf{u}\mathbf{v}^T\),若已知 \(A\) 的特征值,通常无法直接求 \(C\) 的特征值。

但如果 \(A = \lambda I\)(即 \(C = \lambda I + \mathbf{u}\mathbf{v}^T\)),则结论同上:

一个特征值为 \(\lambda + \mathbf{v}^T \mathbf{u}\),其余为 \(\lambda\)

4.4 实对称矩阵 (Real Symmetric Matrix)

最好的矩阵: \(A = A^T\)

  1. 特征值全为实数

  2. 不同特征值对应的特征向量天然正交

  3. 必可正交对角化\(Q^T A Q = \Lambda\)\(Q\)为正交阵)。

4.5 谱分解的高阶处理 (Spectral Decomposition Pro)

实对称矩阵可以分解为 \(n\) 个投影矩阵的加权和:

\[A = \lambda_1 P_1 + \lambda_2 P_2 + \dots + \lambda_n P_n\]

其中 \(P_i = q_i q_i^T\) 是向第 \(i\) 个特征方向的投影矩阵。

4.6 特征向量速算外挂:叉积法 (Cross Product Trick)

仅适用于 3阶矩阵 (\(n=3\)) 的手算神器。

当求 \(3\times 3\) 矩阵 \(A\) 对应特征值 \(\lambda\) 的特征向量 \(x\) 时,我们需要解 \((A - \lambda I)x = 0\)

传统方法: 高斯消元,容易算错。

叉积外挂:

  1. 写出矩阵 \(M = A - \lambda I\)

  2. 因为 \(M\) 是奇异的(秩<3),它的行向量线性相关。

  3. 任选 \(M\) 中两个不共线的行向量 \(r_1, r_2\)(看都不用看直接选非零且不成比例的两行)。

  4. 直接计算叉积:\(x = r_1 \times r_2\)

  5. 得到的 \(x\) 即为特征向量(无需归一化)。

原理: \(Mx=0\) 意味着 \(x\) 垂直于 \(M\) 的每一行。三维空间中同时垂直于两个向量的方向,就是它们的叉积方向。

注意: 如果算出是 \(\mathbf{0}\),说明选的两行共线了,换两行再叉即可。


📐 第五章:空间与变换 (Spaces & Geometry)

5.1 线性变换判定

映射 \(T: V \to W\) 是线性的,必须同时满足:

  1. 加法性: \(T(\alpha + \beta) = T(\alpha) + T(\beta)\)

  2. 齐次性: \(T(k\alpha) = k T(\alpha)\)

避坑指南:

  1. 检查 \(T(\mathbf{0})\) 是否为 \(\mathbf{0}\)。如果 \(T(x) = x + b\) (\(b \neq 0\)),那是平移,不是线性变换。

  2. 出现平方、取模、行列式运算通常不是线性变换。

5.2 欧氏空间与内积判定

一个运算 \(\langle \alpha, \beta \rangle\) 要成为内积,必须满足 4 条公理:

  1. 对称性: \(\langle \alpha, \beta \rangle = \langle \beta, \alpha \rangle\)

  2. 线性(对第一变元): \(\langle k\alpha + l\beta, \gamma \rangle = k\langle \alpha, \gamma \rangle + l\langle \beta, \gamma \rangle\)

  3. 非负性: \(\langle \alpha, \alpha \rangle \ge 0\)

  4. 严格正性: \(\langle \alpha, \alpha \rangle = 0 \iff \alpha = \mathbf{0}\)

5.3 空间相等的证明

要证明线性空间 \(V_1 = V_2\),通常只需证两点:

  1. 包含关系: \(V_1 \subseteq V_2\) (即 \(V_1\) 的基都能被 \(V_2\) 的基线性表示)。

  2. 维数相等: \(\dim(V_1) = \dim(V_2)\)

5.4 施密特正交化 (Gram-Schmidt Orthogonalization)

1. 核心直觉 (The Intuition)

给我们一组“乱七八糟、互相歪斜”的基 \(\alpha_1, \alpha_2, \dots\),我们想把它们变成一组“横平竖直、互相垂直”的基 \(\beta_1, \beta_2, \dots\)

  • 做法: 也就是 “去投影”

  • 保留第一个向量不动

  • 第二个向量 = 原来的第二个 - (在第一个上的影子)

  • 第三个向量 = 原来的第三个 - (在第一个上的影子) - (在第二个上的影子)

2. 计算公式 (The Algorithm)

设原向量组为 \(\alpha_1, \alpha_2, \alpha_3\)

  • Step 1 (定基准):

    \[\beta_1 = \alpha_1\]

  • Step 2 (去投影):

    \[\beta_2 = \alpha_2 - \frac{\langle \alpha_2, \beta_1 \rangle}{\langle \beta_1, \beta_1 \rangle} \beta_1\]

  • Step 3 (如法炮制):

    \[\beta_3 = \alpha_3 - \frac{\langle \alpha_3, \beta_1 \rangle}{\langle \beta_1, \beta_1 \rangle} \beta_1 - \frac{\langle \alpha_3, \beta_2 \rangle}{\langle \beta_2, \beta_2 \rangle} \beta_2\]

最后一步(单位化): 如果题目要求“标准正交基”,别忘了最后除以模长:\(\eta_i = \frac{\beta_i}{|\beta_i|}\)

3. 避坑指南 (The Trap)

  1. 对象搞错: 公式里减去的投影,是基于已经正交化好的 \(\beta_1, \beta_2\)绝对不是基于原来的 \(\alpha_1, \alpha_2\)

    • 错解: \(\beta_3 = \alpha_3 - k_1 \alpha_1 - k_2 \alpha_2\) (❌)

    • 正解: \(\beta_3 = \alpha_3 - k_1 \beta_1 - k_2 \beta_2\)

  2. 计算量爆炸: 如果在中间过程就急着“单位化”(带上了根号),后面的计算会算到怀疑人生。

    • 策略: 先只做正交化(只搞垂直,不管长短),算出清爽的整数 \(\beta_i\),最后再统一除以模长。

🎢 第六章:二次型与合同 (Quadratic Forms & Congruence)

如何理解?

二次型 \(f(x) = x^T A x\) 描述的是一个 “地势图”

我们做的所有变换(配方、正交变换),都是在不改变地形凹凸性质的前提下,换个角度看这个地势。

  1. 正定 = 碗(有最低点,稳定)
  2. 负定 = 山峰(有最高点,不稳定)
  3. 不定 = 马鞍面(鞍点,临界状态)

6.1 合同矩阵 (Congruent Matrices)

定义: 若存在可逆矩阵 \(C\),使得 \(C^T A C = B\),则称 \(A\)\(B\) 合同

概念比较:合同 vs 相似

维度相似 (Similarity)合同 (Congruence)
公式\(P^{-1} A P = B\)\(C^T A C = B\)
核心不变量特征值 (\(\lambda\)), 迹, 行列式惯性指数 (\(p, q\)), 秩 (\(r\))
物理意义同一个线性变换在不同基下的表示同一个二次型(能量)在不同坐标系下的表示
几何直觉拉伸/旋转的倍数没变抛物面的开口方向和凹凸性没变
联系\(P\)正交矩阵 (\(P^T=P^{-1}\)),则相似 \(\iff\) 合同实对称矩阵必可合同于对角阵 \(\text{diag}(\pm 1, 0)\)

避坑:

两个矩阵 \(A, B\) 特征值相同,它们相似,也合同(因为特征值符号肯定一样)。

两个矩阵 \(A, B\) 特征值不同,但正负个数相同,它们合同,但不相似。

6.2 惯性定律 (Sylvester’s Law of Inertia)

定理: 无论你用什么可逆变换(配方法、初等变换、正交变换)把二次型化为标准形,其正系数的个数 (\(p\))负系数的个数 (\(q\))永恒不变的。

  • 正惯性指数 (\(p\)): 能量增加的维度数量(向上的开口)。

  • 负惯性指数 (\(q\)): 能量减少的维度数量(向下的开口)。

  • 秩 (\(r\)): \(r = p + q\) (起作用的总维度)。

6.3 正定性判据的全景图 (Positive Definiteness)

判断 \(A\) 是否正定(即 \(x^T A x > 0\) 对任意 \(x \neq 0\)),其实是在问:“这真的是一个碗吗?”

四大判据(按解题优先级排序):

  1. 特征值判据(最本质):

    全为正实数 (\(\lambda_i > 0\))。

    (物理意义:在所有主轴方向上,都是往上弯的)

  2. 顺序主子式判据(手算最快):

    所有顺序主子式 \(D_k > 0\) (\(k=1, \dots, n\))。

    (代数意义:高斯消元过程中,主元 pivot 永远为正)

  3. 惯性指数判据(配方法):

    正惯性指数 \(p = n\) (或者标准形系数全正)。

  4. 定义判据:

    \(x^T A x > 0\)


🌌 终章:线性代数的四个基本空间 (The Big Picture)

核心图景:

任何一个 \(m \times n\) 的矩阵 \(A\),都在做一件事:

\(n\) 维输入空间 (\(\mathbb{R}^n\)) 里的向量,映射到 \(m\) 维输出空间 (\(\mathbb{R}^m\))。

这个过程中,两个世界被精准地切割成了四块:

四个基本空间

1. 输入世界的切割 (\(\mathbb{R}^n\))

输入向量 \(x\) 被分解为两部分:\(x = x_r + x_n\)

  • 行空间 \(C(A^T)\) (Row Space):

    • 维数: \(r\) (秩)

    • 身份: “有效输入区”

    • 理解: 只有落在这个空间里的分量,\(A\) 才会对它处理(拉伸、旋转)。这一部分的信息被保留并传递到了输出端。

  • 零空间 \(N(A)\) (Null Space):

    • 维数: \(n - r\)

    • 身份: “无效输入区”“信息的黑洞”

    • 理解: 落在这里的分量,\(A\) 直接把它变成了 \(\mathbf{0}\)。这是解方程 \(Ax=0\) 的所有解。

    • 几何关系: 它与行空间正交互补 (\(N(A) \perp C(A^T)\))。

    • 工程意义: 系统中无法被观测到的状态,或者被滤波器滤掉的噪声。

2. 输出世界的切割 (\(\mathbb{R}^m\))

输出向量 \(b\) (或目标向量) 也就处于两个区域之一。

  • 列空间 \(C(A)\) (Column Space):

    • 维数: \(r\) (秩)

    • 身份: “可达区域” (Reachable Set)。

    • 理解: 系统 \(Ax\) 能产生的所有可能的输出。如果 \(b\) 在这里,方程有解。

  • 左零空间 \(N(A^T)\) (Left Null Space):

    • 维数: \(m - r\)

    • 身份: “不可达的禁区”

    • 理解: 这里的向量 \(y\) 满足 \(A^T y = 0\) (即 \(y^T A = 0\),所以叫“左”零空间)。

    • 几何关系: 它与列空间正交互补 (\(N(A^T) \perp C(A)\))。

    • 工程意义: “误差空间”。当我们做最小二乘法解不可解方程 \(Ax=b\) 时,最小误差向量 \(e = b - p\) 就必须死死地躺在这个左零空间里(因为它必须垂直于列空间)。

3. 总结:线性变换的全过程

当矩阵 \(A\) 作用于向量 \(x\) 时,实际上发生了这三步:

  1. 分解:\(x\) 拆成 行空间分量 (有效) 和 零空间分量 (无效)。

  2. 毁灭: 零空间分量直接被消灭,变成 0。

  3. 映射: 行空间分量被一对一地、可逆地映射到了 列空间

维度守恒定律 (Rank-Nullity Theorem):

输入的总维度 \(n\) = 活下来的维度 (\(r\)) + 死掉的维度 (\(n-r\))。

4. 为什么叫“左”零空间?(记忆技巧)

  • Null Space: \(Ax = 0\) (\(x\)\(A\) 的右边)

  • Left Null Space: \(y^T A = 0\) (\(y^T\)\(A\) 的左边)

  • 这实际上就是 \(A^T\) 的零空间。


最后,感谢学科营的辅导员们,在讨论中给予的耐心指导和启发;也感谢搬运并翻译 MIT 18.06 课程视频的 B 站 up 主,让经典的课程得以被更多人看见和学习。 正是这些来自师长、同好与开源分享的帮助,让这段学习旅程更加丰满。

希望这份带着个人视角与几何偏好的梳理,能给你带来一些不一样的启发。 Enjoy the Journey of LINEAR ALGEBRA! 💐

学习资料参考:

  1. 致大一新生【2024新版】 - 知乎
  2. 麻省理工学院—线性代数课(完整版72讲)通俗易懂,绝对是线性代数课程天花板!
  3. 高数数分代数学科营(SJTU园区)
  4. 【熟肉】线性代数的本质 - 01 - 向量究竟是什么?
  5. Visual Kernel - YouTube

整理不易,如果发现笔误或是有更好的理解,欢迎传承! 祝学习顺利 ✨