线性回归法
思想
- 解决回归问题
- 算法可解释性强
- 一般在坐标轴中:横轴是特征(属性),纵坐标为预测的结果,输出标记(具体数值)
和分类问题的区别
分类问题中,横轴和纵轴都是样本特征属性(肿瘤大小,肿瘤发现时间)
回归问题中,横轴样本点(房子大小,地段等),纵轴是预测值(房价)
问题产生
-
求解出拟合的直线$y=ax+b$
-
根据样本点$x^{(i)}$,求解预测值$\hat y^{(i)}$
-
求解真实值和预测值的差距尽量小 ,通常用
差的平方和最小
表示,损失函数为:
$$
\mathop {min}\sum ^{m}_{i=1} (y^{(i)}-{\hat {y{(i)}}})2
$$$$
\mathop {min}\sum ^{m}_{i=1} ({y{i}-ax{(i)}-b})^2
$$ -
上面的损失函数
loss function
实际上就是求解$a,b$
最小二乘法求解$a,b$
求解损失函数$J(a,b)$的过程:
$$
J(a,b) = \mathop {min}\sum ^{m}_{i=1} ({y{i}-ax{(i)}-b})^2
$$
分别对$a,b$求导,在令导数为0,进行求解最终结果为:
-
先对b求导
- 对a求导:
$a$的另一种表示形式:
向量化过程
向量化主要是针对$a$的式子来进行改进,将:分子看做$w{(i)},v{(i)}$,分母看做$w{(i)},w{(i)}$
1 | import numpy as np |
衡量标准
衡量标准:将数据分成训练数据集train
和测试数据集test
,通过训练数据集得到a和b,再通过测试数据集进行衡量
-
均方误差MSE,mean squared error,存在量纲问题
$$
MSE=\frac {1}{m}\sum {m}_{i=1}(y{(i)}_{test}-\hat y{(i)}_{test})2
$$ -
均方根误差RMSE,root mean squared error
$$
RMSE=\sqrt{MSE_{test}}=\sqrt {\frac {1}{m}\sum {m}_{i=1}(y{(i)}_{test}-\hat y{(i)}_{test})2}
$$ -
平均绝对误差MAE,mean absolute error,
$$
MAE=\frac {1}{m}\sum{m}_{i=1}|y{(i)}{test}-\hat y^{(i)}{test}|
$$
sklearn中没有RMSE,只有MAE、MSE
1 | import numpy as np |
$R^2$指标
$R^2$指标的定义为
$$
R^2=1- \frac {SS_{residual}}{SS_{total}}
$$
$$
R^2=1-\frac {\sum_i{(\hat y{(i)}-y{(i)}})^2}{\sum_i{(\bar y-y{(i)}})2}
$$
分子为模型预测产生的误差;分母为使用均值产生的误差(baseline model产生的误差)
式子表示为:预测模型没有产生误差的指标
-
$R^2 \leq 1$
-
$R2$越小越好。$R2$最大值为1,此时预测模型不犯误差。模型等于基准模型时,$R^2$为0
-
当$R^2$小于0,此时学习到的模型还不如基准模型,说明数据可能不存在线性关系
-
R^2的另一种表示为
多元线性回归
将特征数从1拓展到了N,求解思路和一元线性回归类似。
目标函数