Linear Regression

线性回归

线性回归是机器学习中最基本但也十分重要的一个概念,线性回归可以解决简单的最优解和二分类问题,并且有些复杂的学习模型是在线性回归的基础上延伸出来的。

什么是线性回归

在实验中,我们希望找到某个量与其他量之间的关系,在很多情况下这种函数关系是线性的。一般的,把实验所得到的数据点绘制在坐标图中,如果这些点大致在一条直线上,那么我们可以假设我们所要求的函数关系是线性的。

假设我们要找n个自变量(x1,x2,…,xn)和因变量y之间的线性关系,即$y=a_{1}x_{1}+a_{2}x_{2}+\dots+a_{n}x_{n}+b$,在这个函数中有n+1个未知量,因此我们需要n+1组数据来求解这n+1个未知量。但是实际中我们得到的数据是不精确的并且往往多于n+1组数据,由线性代数我们可以知道超定方程是无解的。这种情况下如果我们选取其中的n+1组数据来求解未知数将产生很大的误差,而且我们希望充分的利用得到的数据。当我们把这些数据点绘制在坐标纸上,我们会发现我们面临的问题是找到一条直线尽可能地表现这些点所显示的趋势。确定这样一条直线的过程就叫做线性回归。

线性回归的公式

为了精确的描述,我们用均方差来刻画直线的接近程度,均方差越小,所对应的直线越接近这些点所想表达的趋势。当函数是一元函数f(x)=wx+b时,均方误差(MSE)的计算式如下:

当均方误差最小的时候所确定的函数关系就是我们要求的最接近数据点所展现的趋势,在这种情况下有下列关系式成立

更一般的,当函数为多元线性函数$f(x)=w_{1}x_{1}+w_{2}x_{2}+\dots+w_{m}x_{m}+b$时,函数关系为

为方便讨论,我们把数据集D记为

把$\hat w$向量记为

把y记为$(y_{1},y_{2},\dots,y_{m})^{T}$,则类似于一元函数有

下面进行分类讨论:

  1. 当$D^{T}D$为满秩矩阵或正定矩阵时,可得

  2. 当$D^{T}D$为非满秩矩阵时(实际中经常参数的数量多于数据量,此时$D^{T}D$一定是非满秩),我们会解得多个$\hat w$,它们都能使均方误差最小化,这时选择哪个解作为输出取决于算法的偏好。

文章目录
  1. 1. 线性回归
    1. 1.1. 什么是线性回归
      1. 1.1.0.1. 线性回归的公式