Python数据挖掘与机器学习实战(四):用 Python 实现多元线性回归

2020 年 2 月 01 日

Python数据挖掘与机器学习实战(四):用 Python 实现多元线性回归

编者按:本文节选自方巍著《Python 数据挖掘与机器学习实战》一书中的部分章节。

3.4 用 Python 实现多元线性回归

当结果值的影响因素有多个时,可以采用多元线性回归模型。例如,商品的销售额可能与电视广告投入、收音机广告投入和报纸广告投入有关系,可以有:

Sales=β0+β1TV+β2Radio+β3Newspaper(37)Sales=β0+β1TV+β2Radio+β3Newspaper(37)

3.4.1 使用 pandas 读取数据

pandas 是一个用于数据探索、数据分析和数据处理的 Python 库。

复制代码
import pandas as pd
#获取数据
data = pd.read_csv('/home/lulei/Advertising.csv')
# 显示前 5 项数据
data.head()

这里的 Advertising.csv 是来自 http://www-bcf.usc.edu/~gareth/ISL/Advertising.csv ,大家可以自行下载。

上面代码的运行结果如下:

复制代码
TV Radio Newspaper Sales
0 230.1 37.8 69.2 22.1
1 44.5 39.3 45.1 10.4
2 17.2 45.9 69.3 9.3
3 151.5 41.3 58.5 18.5
4 180.8 10.8 58.4 12.9

上面显示的结果类似一个电子表格,这个结构称为 pandas 的数据帧(data frame),类型全称是 pandas.core.frame.DataFrame。

pandas 的两个主要数据结构是 Series 和 DataFrame;Series 类似于一维数组,它由一组数据及一组与之相关的数据标签(即索引)组成;DataFrame 是一个表格型的数据结构,它含有一组有序的列,每列可以是不同的值类型。DataFrame 既有行索引也有列索引,它可以被看做由 Series 组成的字典。

复制代码
# 显示最后 5 项数据
data.tail()

以上代码的作用是只显示结果的末尾 5 行,结果如下:

复制代码
TV Radio Newspaper Sales
195 38.2 3.7 13.8 7.6
196 94.2 4.9 8.1 9.7
197 177.0 9.3 6.4 12.8
198 283.6 42.0 66.2 25.5
199 232.1 8.6 8.7 13.4

查看 DataFrame 的维度:

复制代码
data.shape

注意第一列叫索引,和数据库某个表中的第一列类似。结果如下:

复制代码
200,4

3.4.2 分析数据

分析数据的特征:

TV:在电视上投资的广告费用(以千万元为单位);

Radio:在广播媒体上投资的广告费用;

Newspaper:用于报纸媒体的广告费用;

响应:连续的值;

Sales:对应产品的销量。

在这个案例中,通过不同的广告投入,预测产品销量。因为响应变量是一个连续的值,所以这个问题是一个回归问题。数据集一共有 200 个观测值,每一组观测对应一个市场的情况。

注意:这里推荐使用的是 seaborn 包。这个包的数据可视化效果比较好。其实 seaborn 也属于 Matplotlib 的内部包,只是需要单独安装。

复制代码
import seaborn as sns
import matplotlib.pyplot as plt
# 使用散点图可视化特征与响应之间的关系
sns.pairplot(data, x_vars=['TV','Radio','Newspaper'], y_vars='Sales',
size=7, aspect=0.8)
plt.show() #注意必须加上这一句, 否则无法显示
#这里选择 TV?Radio?Newspaper 作为特征,Sales 作为观测值

seaborn 的 pairplot 函数绘制 X 的每一维度和对应 Y 的散点图。通过设置 size 和 aspect 参数来调节显示的大小和比例。通过加入一个参数 kind=‘reg’,seaborn 可以添加一条最佳拟合直线和 95% 的置信带。

复制代码
sns.pairplot(data, x_vars=['TV','Radio','Newspaper'], y_vars='Sales',
size=7, aspect=0.8, kind='reg')
plt.show()

如图 3-3 是运行后的拟合效果图。从图中可以看出,TV 特征和销量是有比较强的线性关系的,而 Radio 和 Sales 线性关系弱一些,Newspaper 和 Sales 线性关系更弱。

图 3-3 线性回归结果图

3.4.3 线性回归模型

线性回归模型具有如下优缺点。

  • 优点:快速;没有调节参数;可轻易解释;可理解。
  • 缺点:相比其他复杂一些的模型,其预测准确率不高,因为它假设特征和响应之间存在确定的线性关系,这种假设对于非线性的关系,线性回归模型显然不能很好地进行数据建模。

1.使用 pandas 构建 X(特征向量)和 y(标签列)

scikit-learn 要求 X 是一个特征矩阵,y 是一个 NumPy 向量。pandas 构建在 NumPy 之上。因此,X 可以是 pandas 的 DataFrame,y 可以是 pandas 的 Series,scikit-learn 可以理解这种结构。

复制代码
#创建特征列表
feature_cols = ['TV', 'Radio', 'Newspaper']
#使用列表选择原始 DataFrame 的子集
X = data[feature_cols]
X = data[['TV', 'Radio', 'Newspaper']]
# 输出前 5 项数据
print (X.head())

检查 X 类型及维度,代码如下:

复制代码
print (type(X))
print (X.shape)

输出结果如下:

复制代码
TV Radio Newspaper
0 230.1 37.8 69.2
1 44.5 39.3 45.1
2 17.2 45.9 69.3
3 151.5 41.3 58.5
4 180.8 10.8 58.4
<class 'pandas.core.frame.DataFrame'>
(200, 3)

查看数据集中的数据,代码如下:

复制代码
#从 DataFrame 中选择一个 Series
y = data['Sales']
y = data.Sales
#输出前 5 项数据
print (y.head())

输出的结果如下:

复制代码
0 22.1
1 10.4
2 9.3
3 18.5
4 12.9
Name: Sales

2.构建训练集与测试集

构建训练集和测试集,分别保存在 X_train、y_train、Xtest 和 y_test 中。

复制代码
<pre name="code" class="python"><span style="font-size:14px;">##构造训练
集和测试集
from sklearn.cross_validation import train_test_split #这里是引用交叉验证
X_train,X_test, y_train, y_test = train_test_split(X, y, random_state=1)
# 75% 用于训练,25% 用于测试
print (X_train.shape)
print (y_train.shape)
print (X_test.shape)
print (y_test.shape)

查看构建的训练集和测试集,输出结果如下:

复制代码
(150,3)
(150,)
(50,3)
(50,)

3.sklearn 的线性回归

使用 sklearn 做线性回归,首先导入相关的线性回归模型,然后做线性回归模拟。

复制代码
from sklearn.linear_model import LinearRegression
linreg = LinearRegression()
model=linreg.fit(X_train, y_train) #线性回归
print (model)
print (linreg.intercept_) #输出结果
print (linreg.coef_)

输出的结果如下:

复制代码
LinearRegression(copy_X=True, fit_intercept=True, normalize=False)
2.66816623043
[ 0.04641001 0.19272538 -0.00349015]

输出变量的回归系数:

复制代码
# 将特征名称与系数对应
zip(feature_cols, linreg.coef_)

输出如下:

复制代码
[('TV', 0.046410010869663267),
('Radio', 0.19272538367491721),
('Newspaper', -0.0034901506098328305)]

线性回归的结果如下:

如何解释各个特征对应的系数的意义呢?

对于给定了 Radio 和 Newspaper 的广告投入,如果在 TV 广告上每多投入 1 个单位,对应销量将增加 0.0466 个单位。也就是其他两个媒体的广告投入固定,在 TV 广告上每增加 1000 美元(因为单位是 1000 美元),销量将增加 46.6(因为单位是 1000)。但是大家注意,这里的 Newspaper 的系数是负数,所以可以考虑不使用 Newspaper 这个特征。

4.预测

通过线性模拟求出回归模型之后,可通过模型预测数据,通过 predict 函数即可求出预测结果。

复制代码
y_pred = linreg.predict(X_test)
print (y_pred)
print (type(y_pred))

输出结果如下:

复制代码
[ 14.58678373 7.92397999 16.9497993 19.35791038 7.36360284
7.35359269 16.08342325 9.16533046 20.35507374 12.63160058
22.83356472 9.66291461 4.18055603 13.70368584 11.4533557
4.16940565 10.31271413 23.06786868 17.80464565 14.53070132
15.19656684 14.22969609 7.54691167 13.47210324 15.00625898
19.28532444 20.7319878 19.70408833 18.21640853 8.50112687
9.8493781 9.51425763 9.73270043 18.13782015 15.41731544
5.07416787 12.20575251 14.05507493 10.6699926 7.16006245
11.80728836 24.79748121 10.40809168 24.05228404 18.44737314
20.80572631 9.45424805 17.00481708 5.78634105 5.10594849]
<type 'numpy.ndarray'>

5.评价测度

对于分类问题,评价测度是准确率,但其不适用于回归问题,因此使用针对连续数值的评价测度(evaluation metrics)。

这里介绍 3 种常用的针对线性回归的评价测度。

  • 平均绝对误差(Mean Absolute Error,MAE);
  • 均方误差(Mean Squared Error,MSE);
  • 均方根误差(Root Mean Squared Error,RMSE)。

这里使用 RMES 进行评价测度。

复制代码
#计算 Sales 预测的 RMSE
print (type(y_pred),type(y_test))
print (len(y_pred),len(y_test))
print (y_pred.shape,y_test.shape)
from sklearn import metrics
import numpy as np
sum_mean=0
for i in range(len(y_pred)):
sum_mean+=(y_pred[i]-y_test.values[i])**2
sum_erro=np.sqrt(sum_mean/50)
# 计算 RMSE 的大小
print ("RMSE by hand:",sum_erro)

最后的结果如下:

复制代码
<type 'numpy.ndarray'><class 'pandas.core.series.Series'>
50 50
(50,) (50,)
RMSE by hand: 1.42998147691

接下来绘制 ROC 曲线,代码如下:

复制代码
import matplotlib.pyplot as plt
plt.figure()
plt.plot(range(len(y_pred)),y_pred,'b',label="predict")
plt.plot(range(len(y_pred)),y_test,'r',label="test")
plt.legend(loc="upper right") #显示图中的标签
plt.xlabel("the number of sales") #横坐标轴
plt.ylabel('value of sales') #纵坐标轴
plt.show()#显示结果

运行程序,显示结果如图 3-4 所示(上面的曲线是真实值曲线,下面的曲线是预测值曲线)。

至此,整个一次多元线性回归的预测就结束了。

图 3-4 模拟效果比对图

图书简介: https://item.jd.com/12623592.html?dist=jd

相关阅读

Python 数据挖掘与机器学习实战(一):Python 语言优势及开发工具

Python 数据挖掘与机器学习实战(二):Python 语言简介

Python 数据挖掘与机器学习实战(三):网络爬虫原理与设计实现

Python 数据挖掘与机器学习实战(四):用 Python 实现多元线性回归

Python 数据挖掘与机器学习实战(五):基于线性回归的股票预测

2020 年 2 月 01 日 16:20 190

评论

发布
暂无评论
发现更多内容

架构师训练营作业

邵帅

【科普】Scrum——从橄榄球争球到敏捷开发

陈琦

Scrum 敏捷开发

架构师第四周学习总结

傻傻的帅

通俗易懂的 Deno 入门教程

阿宝哥

typescript 前端 deno

架构师训练营第四周总结

一剑

做产品少走弯路:你需要懂点高阶的知识

我是IT民工

产品 管理 知识体系

DevOps研发模式下「产品质量度量」方案实践

狂师

DevOps 研发管理 研发效能 开发流程

Lambda初次使用很慢?从JIT到类加载再到实现原理

Kerwin

Java Lambda 类加载 JIT

一题搞定static关键字

Java课代表

Java 面试

瑞幸商业模式的本质与组合式创新

石云升

创业 瑞幸 组合式创新

重学 Java 设计模式:实战观察者模式「模拟类似小客车指标摇号过程,监听消息通知用户中签场景」

小傅哥

Java 设计模式 小傅哥 代码优化 观察者模式

中国未来需要什么样的人才?机遇与挑战!

CECBC区块链专委会

CECBC 中国人才 中国脊梁 数字经济

一个典型的大型互联网应用系统使用哪些技术方案和手段

李锦

极客大学架构师训练营

架构师训练营 - 第四周学习总结

hellohuan

极客大学架构师训练营

第四周作业

武鹏

第四周总结

武鹏

什么是工程师思维?

尖果爱学习

思维方式

小师妹学JVM之:逃逸分析和TLAB

程序那些事

Java JVM 小师妹 TLAB 逃逸分析

第四周课程总结

考尔菲德

week04 互联网架构发展学习总结

李锦

扯淡 Spring BeanDefinition

CoderLi

Java spring 程序员 源码分析

架构师训练营4周总结

邵帅

架构师第四周作业

傻傻的帅

从不可描述的服务雪崩到初探Hystrix

老胡爱分享

高可用 灾备

分布式系统设计 - 第四周总结

孙志平

给“小白”漫画+图示讲解MyBatis原理,就问香不香!

码农神说

mybatis Java、

架构师 第四周学习总结

冯凯

互联网系统架构总结

周冬辉

【week04】总结

chengjing

架构师 第四周作业

冯凯

我精心整理的 136 页 Excel 数据透视表 PDF 文件!【附获取方式】

JackTian

Python 程序员 数据分析 Excel 数据透视表

Python数据挖掘与机器学习实战(四):用 Python 实现多元线性回归-InfoQ