给定一样本点,找到贯穿样本点的直线; 处理这个问题有两类方法,一种是线性回归,另一种是主成分分析。本文从优化目标来比较两者区别。 由于两类方法比较经典,教程也较多,本文不再详细介绍二类方法。
假定样本点为:
$$ \begin{align} \left( \hat{x}_1,\hat{y}_1 \right) ,\left( \hat{x}_2,\hat{y}_2 \right) ,\dots ,\left( \hat{x}_N,\hat{y}_N \right) \end{align} $$1. 线性回归
线性回归假设直线方程为: $y=kx+b$, 众所周知它的优化目标是尽可能减小预测$y_i$以及真值 $\hat{y}_i$之间的距离的平方:
$$ \begin{align} \min \sum_{i=1}^N{\left( y_i-\hat{y}_i \right) ^2}\Rightarrow \underset{k,b}{\min}\sum_{i=1}^N{\left( kx_i+b-\hat{y}_i \right) ^2} \end{align} $$上式就是我们熟知的最小二乘法。对$k$和$b$分别求偏导并令偏导为0即可求解出最终的$\hat{k}$和$\hat{b}$。推导过程和最终结果省略。
2. 主成分分析
与线性回归不同,主成分分析的优化目标是最小化点到直线距离,假设直线方程为$ax+by+c=0$。 简单起见,如果假设样本点均值和最终的直线截距均为0, 则直线方程简化为 $ax+by=0$.
从解析几何的性质可知:假设某个样本点坐标为
$$ \begin{align} \left( \hat{x}_i,\hat{y}_i \right) \end{align} $$那么这个样本点到直线距离如下:
$$ \begin{align} d_i=\frac{a\hat{x}_i+b\hat{y}_i}{\sqrt{a^2+b^2}} \end{align} $$最终优化目标可以表示为最小化所有点到直线的距离平方和:
$$ \begin{align} \min \sum_{i=1}^N{d_{i}^{2}} \end{align} $$如果把优化参数写成列向量的形式 $\boldsymbol{w}\equiv\left(a;b\right) \in \mathbb{R}^{2\times1}$ 数据点写成行向量的形式 $\boldsymbol{p}_i\equiv\left(\hat{x}_i,\hat{y}_i\right) \in \mathbb{R}^{1\times2}$,那么公式(4)可以写成如下表达:
$$ \begin{align} d_i=\frac{\boldsymbol{p}_i\boldsymbol{w}}{\left\| \boldsymbol{w}\right\|_2} \end{align} $$如果约束 $\left\| \boldsymbol{w}\right\| _2=1$,并且所有点集合用大矩阵 $\boldsymbol{P}\equiv \left( \boldsymbol{p}_1;\boldsymbol{p}_2;\dots ;\boldsymbol{p}_N \right) \in \mathbb{R}^{n\times2}$表示,那么优化目标(5)可以转化为:
$$ \begin{align} \underset{\boldsymbol{w}}{\min}\sum_{i=1}^N{\left( \boldsymbol{p}_i\boldsymbol{w} \right) ^2 },\,\, s.t. \,\left\| \boldsymbol{w} \right\| _2=1 \nonumber \\ \Rightarrow \underset{\boldsymbol{w}}{\min}\,\,\boldsymbol{w}^T\boldsymbol{P}^T\boldsymbol{Pw},\,\, s.t.\, \boldsymbol{w}^T\boldsymbol{w}=1 \end{align} $$上式可以使用拉格朗日乘子法求解:
$$ \begin{align} \boldsymbol{w}^T\boldsymbol{P}^T\boldsymbol{Pw}+\lambda \boldsymbol{w}^T\boldsymbol{w} \end{align} $$对 $\boldsymbol{w}$求偏导并令导数为零:
$$ \begin{align} 2\boldsymbol{P}^T\boldsymbol{Pw}+2\lambda \boldsymbol{w}=0 \nonumber \\ \Rightarrow \boldsymbol{P}^T\boldsymbol{Pw}=\left( -\lambda \right) \boldsymbol{w} \end{align} $$问题转化为对协方差矩阵(零均值假设)$\boldsymbol{P}^T\boldsymbol{P} \in \mathbb{R}^{2\times 2}$求特征值和特征向量。下面分析拉格朗日乘子$\lambda$的物理意义,由于2阶方阵最多有两个特征值,那么应该选取哪个特征值呢? 特征值有如下性质推导:
$$ \begin{align} \sum_{i=1}^N{d_{i}^{2}}&=\boldsymbol{w}^T\boldsymbol{P}^T\boldsymbol{Pw} \nonumber \\ &=\left( -\lambda \right) \boldsymbol{w}^T\left( -\lambda \right) \boldsymbol{w} \nonumber \\ &=\lambda ^2\boldsymbol{w}^T\boldsymbol{w}=\lambda^2 \end{align} $$可知,优化目标值就是特征值的平方,由于我们希望优化目标值越小越好,因此选择绝对值较小的特征值对应的特征向量作为最终的解。
特点总结:
- 线性回归通常用于两变量相关性分析以及机器学习预测, 它的侧重点是变量分析和预测本身, 数据点的坐标分量物理意义明确。但是优化目标和结果高度依赖坐标轴的选取和建立。
- 主成分分析直接建模点到直线的距离,它不依赖坐标系的选取,优化结果具有旋转、镜像等变性。适合几何建模。

说些什么吧!