使用的书 :《人工智能的数学基础》
大概是在里面找些重要的内容,实际上B站有这个的课。
Gram-Schmidt Process
wiki的翻译: 格拉姆-施密特正交化
给一点基础的定义
Vn 维数为 n 的内积空间
v∈Vn , Vn 中的元素,可以是向量函数等
⟨v1,v2⟩ , v1,v2 的内积
spanv1,v2,...,vn : v1,v2,...,vn 的张成空间
projvu=⟨v,v⟩⟨u,v⟩ : u 在 v 上的投影
算法
利用投影原理构造新的正交基
假设 v∈Vn 。Vk 是 Vn 的 k 维子空间。
v 与 v 在 Vk 的投影之差为
β=v−i=1∑k⟨v,ηi⟩ηi
显然,有 β 正交与 Vk 的正交基 ηi 我们把 β 单位化即可
ηk+1=∣β∣β
不同形式
实空间 ⟨a,b⟩=bTa
复空间 ⟨a,b⟩=bHa
函数形式 ⟨f(x),g(x)⟩=∫−∞+∞f(x)g(x)d(x)
特征向量
A 为一个 n∗n 的矩阵 , x 为一个 1∗n 的向量
AxT=λ1xT 那么xT 为 A 的右特征向量 λ1 为右特征值
xA=λ2x 那么x 为 A 的左特征向量,λ2 为左特诊向量
有了特征向量后,原本矩阵*矩阵就变成了矩阵的数乘。
利用基矩阵降维
Y=X∗V ,V 为 n∗n 的基矩阵,X 为 n∗m 的样本矩阵,Y 为n∗m 的新样本矩阵。
定义相关性 cov=E((A−μa)(B−μb))