使用的书 :《人工智能的数学基础》

大概是在里面找些重要的内容,实际上B站有这个的课。

Gram-Schmidt Process

wiki的翻译: 格拉姆-施密特正交化

给一点基础的定义

VnV^n 维数为 nn 的内积空间

vVnv \in V^n , VnV^n 中的元素,可以是向量函数等

v1,v2\langle v_1,v_2 \rangle , v1,v2v_1,v_2 的内积

spanv1,v2,...,vn\text{span}{v_1,v_2,...,v_n} : v1,v2,...,vnv_1,v_2,...,v_n 的张成空间

projvu=u,vv,v\text{proj}_v u=\frac{\lang u,v \rang}{\lang v,v\rang} : uuvv 上的投影

算法

利用投影原理构造新的正交基

假设 vVnv \in V^nVkV^kVnV^nkk 维子空间。

vvvvVkV^k 的投影之差为

β=vi=1kv,ηiηi\beta=v-\sum_{i=1}^{k}\limits \lang v,\eta_i \rang \eta_i

显然,有 β\beta 正交与 VkV^k 的正交基 ηi\eta_i 我们把 β\beta 单位化即可

ηk+1=ββ\eta_{k+1}=\frac{\beta}{|\beta|}

不同形式

实空间 a,b=bTa\lang a,b \rang=b^Ta

复空间 a,b=bHa\lang a,b \rang=b^Ha

函数形式 f(x),g(x)=+f(x)g(x)d(x)\lang f(x),g(x) \rang=\int_{-\infty}^{+\infty}f(x)g(x)d(x)

特征向量

AA 为一个 nnn*n 的矩阵 , xx 为一个 1n1*n 的向量

AxT=λ1xTAx^T=\lambda_1x^T 那么xTx^TAA 的右特征向量 λ1\lambda_1 为右特征值

xA=λ2xxA=\lambda_2x 那么xxAA 的左特征向量,λ2\lambda_2 为左特诊向量

有了特征向量后,原本矩阵*矩阵就变成了矩阵的数乘。

利用基矩阵降维

Y=XVY=X*V ,VVnnn*n 的基矩阵,XXnmn*m 的样本矩阵,YYnmn*m 的新样本矩阵。

定义相关性 cov=E((Aμa)(Bμb))\text{cov}=E((A-\mu_a)(B-\mu_b))