《线性代数》学习笔记
先正常整理一些题目及课程中的内容,最后部分有小彩蛋,纯学习的可以跳过啦;
已知$m\times n$矩阵$A$,有$Ax=\begin{bmatrix}1\\0\\0\end{bmatrix}$无解;$Ax=\begin{bmatrix}0\\1\\0\end{bmatrix}$仅有唯一解,求关于$m,n,rank(A)$的信息。
首先,最容易判断的是$m=3$;而根据第一个条件可知,矩阵不满秩,有$r<m$;根据第二个条件可知,零空间仅有零向量,也就是矩阵消元后没有自由变量,列向量线性无关,所以有$r=n$。
综上,有$m=3>n=r$。
根据所求写出一个矩阵$A$的特例:$A=\begin{bmatrix}0&0\\1&0\\0&1\end{bmatrix}$。
$\det A^TA\stackrel{?}{=}\det AA^T$:不相等,因为$A^TA$可逆而$AA^T$不可逆,所以行列式不相等(但是对于方阵,$\det AB=\det BA$恒成立)
$A^TA$可逆吗?是,因为$r=n$,矩阵列向量线性无关,即列满秩。
$AA^T$正定吗?否,因为$AA^T$是$3\times n$矩阵与$n\times 3$矩阵之积,是一个三阶方阵,而$AA^T$秩为$2$,所以不是正定矩阵(不过$AA^T$一定是半正定矩阵)
求证$A^Ty=c$至少有一个解:因为$A$的列向量线性无关,所以$A^T$的行向量线性无关,消元后每行都有主元,且总有自由变量,所以零空间中有非零向量,零空间维数是$m-r$(可以直接从$\dim N\left(A^T\right)=m-r$得到结论)。
设$A=\Bigg[v_1\ v_2\ v_3\Bigg]$,对于$Ax=v_1-v_2+v_3$,求$x$
按列计算矩阵相乘,有$x=\begin{bmatrix}1\\-1\\1\end{bmatrix}$;
若Ax=v_1-v_2+v_3=0,则解是唯一的吗?为什么。如果解释唯一的,则零空间中只有零向量,而在此例中$x=\begin{bmatrix}1\\-1\\1\end{bmatrix}$就在零空间中,所以解不唯一;
若$v_1,v_2,v_3$是标准正交向量,那么怎样的线性组合$c_1v_1+c_2v_2$能够最接近$v_3$?此问是考察投影概念,由于是正交向量,所以只有$0$向量最接近$v_3$。
矩阵$A=\begin{bmatrix}.2&.4&.3\\.4&.2&.3\\.4&.4&.4\end{bmatrix}$,求稳态
这是个马尔科夫矩阵,前两之和为第三列的两倍,奇异矩阵总有一个特征值为$0$,而马尔科夫矩阵总有一个特征值为$1$,剩下一个特征值从矩阵的迹得知为$-.2$;
再看马尔科夫过程,设从$u(0)$开始,$u_k=A^ku_0, u_0=\begin{bmatrix}0\\10\\0\end{bmatrix}$。先代入特征值$\lambda_1=0,\ \lambda_2=1,\ \lambda_3=-.2$查看稳态$u_k=c_1\lambda_1^kx_1+c_2\lambda_2^kx_2+c_3\lambda_3^kx_3$,当$k\to\infty$,第一项与第三项都会消失,剩下$u_\infty=c_2x_2$;
到这里我们只需求出$\lambda_2$对应的特征向量即可,带入特征值求解$(A-I)x=0$,有$\begin{bmatrix}-.8&.4&.3\\.4&-.8&.3\\.4&.4&-.6\end{bmatrix}\begin{bmatrix}?\\?\\?\end{bmatrix}=\begin{bmatrix}0\\0\\0\end{bmatrix}$,可以消元得,也可以直接观察得到$x_2=\begin{bmatrix}3\\3\\4\end{bmatrix}$。
剩下就是求$c_2$了,可以通过$u_0$一一解出每个系数,但是这就需要解出每一个特征值。另一种方法,我们可以通过马尔科夫矩阵的特性知道,对于马尔科夫过程的每一个$u_k$都有其分量之和与初始值分量之和相等,所以对于$x_2=\begin{bmatrix}3\\3\\4\end{bmatrix}$,有$c_2=1$。
所以最终结果是$u_\infty=\begin{bmatrix}3\\3\\4\end{bmatrix}$。
对于二阶方阵,回答以下问题:
求投影在直线$a=\begin{bmatrix}4\\-3\end{bmatrix}$上的投影矩阵:应为$P=\frac{aa^T}{a^Ta}$。
已知特征值$\lambda_1=2,\ x_1=\begin{bmatrix}1\\2\end{bmatrix}\quad \lambda_2=3,\ x_2=\begin{bmatrix}2\\1\end{bmatrix}$求原矩阵$A$:从对角化公式得$A=S\Lambda S^{-1}=\begin{bmatrix}1&2\\2&1\end{bmatrix}\begin{bmatrix}0&0\\0&3\end{bmatrix}\begin{bmatrix}1&2\\2&1\end{bmatrix}^{-1}$,解之即可。
$A$是一个实矩阵,且对任意矩阵$B$,$A$都不能分解成$A=B^TB$,给出$A$的一个例子:我们知道$B^TB$是对称的,所以给出一个非对称矩阵即可。 矩阵$A$有正交的特征向量,但不是对称的,给出一个$A$的例子:我们在三十三讲提到过,反对称矩阵,因为满足$AA^T=A^TA$而同样具有正交的特征向量,所以有$A=\begin{bmatrix}0&1\\-1&0\end{bmatrix}$或旋转矩阵$\begin{bmatrix}\cos\theta&-\sin\theta\\\sin\theta&\cos\theta\end{bmatrix}$,这些矩阵都具有复数域上的正交特征向量组。
最小二乘问题,因为时间的关系直接写出计算式和答案
$\begin{bmatrix}1&0\\1&1\\1&2\end{bmatrix}\begin{bmatrix}C\\D\end{bmatrix}=\begin{bmatrix}3\\4\\1\end{bmatrix}(Ax=b)$,解得$\begin{bmatrix}\hat C\\\hat D\end{bmatrix}=\begin{bmatrix}\frac{11}{3}\\-1\end{bmatrix}$;
求投影后的向量$p$:向量$p$就是向量$b$在矩阵$A$列空间中的投影,所以$p=\begin{bmatrix}p_1\\p_2\\p_3\end{bmatrix}=\begin{bmatrix}1&0\\1&1\\1&2\end{bmatrix}\begin{bmatrix}\hat C\\\hat D\end{bmatrix}$;
求拟合直线的图像:$x=0,1,2$时$y=p_1,p_2,p_2$所在的直线的图像,$y=\hat C+\hat Dx$即$y=\frac{11}{3}-x$。
%matplotlib inline import matplotlib.pyplot as plt from sklearn import linear_model import numpy as np import pandas as pd import seaborn as sns x = np.array([0, 1, 2]).reshape((-1,1)) y = np.array([3, 4, 1]).reshape((-1,1)) predict_line = np.array([-1, 4]).reshape((-1,1)) regr = linear_model.LinearRegression() regr.fit(x, y) ey = regr.predict(x) fig = plt.figure() plt.axis('equal') plt.axhline(y=0, c='black') plt.axvline(x=0, c='black') plt.scatter(x, y, c='r') plt.scatter(x, regr.predict(x), s=20, c='b') plt.plot(predict_line, regr.predict(predict_line), c='g', lw='1') [ plt.plot([x[i], x[i]], [y[i], ey[i]], 'r', lw='1') for i in range(len(x))] plt.draw()
——接上面的题目
求一个向量$b$使得最小二乘求得的$\begin{bmatrix}\hat C\\\hat D\end{bmatrix}=\begin{bmatrix}0\\0\end{bmatrix}$:
我们知道最小二乘求出的向量$\begin{bmatrix}\hat C\\\hat D\end{bmatrix}$使得$A$列向量的线性组合最接近$b$向量(即$b$在$A$列空间中的投影),如果这个线性组合为$0$向量(即投影为$0$),则$b$向量与$A$的列空间正交,所以可以取$b=\begin{bmatrix}1\\-2\\1\end{bmatrix}$同时正交于$A$的两个列向量。
2024-08-14
MIT线性代数的全部课程到此结束
终于写完全部的线代课程了,从七月到八月几乎一个月都在学这部分内容,中间夹杂一些学术研究上的事情很是痛苦,中间好多时候其实不太想写,但是不写上完课后好像打卡一样我也不知道我学的什么,但线代确实难啊wk;中间遇到好多困难,比如说要先学html格式,因为markdown的写作格式在网页中有时候识别会乱码;另一个是数学公式,又学了一下mathjax的数学表达代码;中间网站也因为一些反向代理、源代码写错等等完全崩溃;可能呈现在眼前的这个网页是每天回彰武宿舍又干到2点搞出来的,总之吧是真的佩服我自己,能挖这么一个大的坑给自己,如果再来一次,我还喜欢这样哈哈哈哈哈!
请关注下一个学习笔记系列,机器学习大板块(说不准,有可能把很久前学过的李航统计方法补充上)
2024-08-14 00:51:04
Comments | NOTHING