最小二乘回归

首先介绍一下最小二乘回归,对于
降秩回归 (Reduce-Rank Regression) - 图1
我们有
降秩回归 (Reduce-Rank Regression) - 图2
降秩回归 (Reduce-Rank Regression) - 图3
从几何的角度来看,就是寻找b在A列空间中的投影

投影图.png
A 将 b 分成了两部分,一部分属于A的列空间,另一部分垂直于A的列空间
降秩回归 (Reduce-Rank Regression) - 图5
由垂直可知:
降秩回归 (Reduce-Rank Regression) - 图6
降秩回归 (Reduce-Rank Regression) - 图7
得到了同样的结论

Reduce-Rank Regression

降秩回归与最小二乘回归有点类似,问题变成了
降秩回归 (Reduce-Rank Regression) - 图8
并且对 B 的秩有要求: 降秩回归 (Reduce-Rank Regression) - 图9
投影图(1).png
我们先设其最小二乘解为 降秩回归 (Reduce-Rank Regression) - 图11,于是有
降秩回归 (Reduce-Rank Regression) - 图12
降秩回归 (Reduce-Rank Regression) - 图13
我们知道 降秩回归 (Reduce-Rank Regression) - 图14 是垂直 X 的,所以内积项为0。
降秩回归 (Reduce-Rank Regression) - 图15与 B 无关,所以只需考虑第二项:
降秩回归 (Reduce-Rank Regression) - 图16
我们设 降秩回归 (Reduce-Rank Regression) - 图17,于是问题就变成了求 降秩回归 (Reduce-Rank Regression) - 图18 的减秩逼近。

我们其进行SVD分解:降秩回归 (Reduce-Rank Regression) - 图19,在 F 范数下,降秩回归 (Reduce-Rank Regression) - 图20 的秩r最优逼近为
降秩回归 (Reduce-Rank Regression) - 图21
我们设 降秩回归 (Reduce-Rank Regression) - 图22降秩回归 (Reduce-Rank Regression) - 图23,于是有
降秩回归 (Reduce-Rank Regression) - 图24
于是 降秩回归 (Reduce-Rank Regression) - 图25 即为所求。

注意

这里要注意以下几点:

  1. 为什么不直接用 XB 去逼近 Y,而是去逼近降秩回归 (Reduce-Rank Regression) - 图26,因为需要满足行满秩。
  2. 忘了,等想起来再补充

    参考

  3. What is “reduced-rank regression” all about?

  4. Mukherjee, 2013, Topics on Reduced Rank Methods for Multivariate Regression