时间:2021-05-22
如下所示:
#-*- coding: utf-8 -*-import pandas as pdimport numpy as npfrom patsy.highlevel import dmatrices#2.7里面是from patsy import dmatricesfrom statsmodels.stats.outliers_influence import variance_inflation_factorimport statsmodels.api as smimport scipy.stats as statsfrom sklearn.metrics import mean_squared_errorimport seaborn as snsimport matplotlib.pyplot as pltimport matplotlib.mlab as mlabimport matplotlib #数据获取ccpp = pd.read_excel('CCPP.xlsx')ccpp.describe()#绘制各变量之间的散点图sns.pairplot(ccpp)plt.show()#发电量(PE)与自变量之间的相关系数a = ccpp.corrwith(ccpp.PE)print(a)#将因变量PE,自变量AT,V,AP和截距项(值为1的1维数值)以数据框的形式组合起来y,x = dmatrices('PE~AT+V+AP',data = ccpp,return_type = 'dataframe')#构造空的数据框vif = pd.DataFrame()vif[""VIF Factor""] = [variance_inflation_factor(x.values,i) for i in range(x.shape[1])]vif[""features""] = x.columnsprint (vif) #构建PE与AT,V和AP之间的线性模型fit = sm.formula.ols('PE~AT+V+AP',data=ccpp).fit()b = fit.summary()# print(b)#计算模型的RMSE值pred = fit.predict()c = np.sqrt(mean_squared_error(ccpp.PE,pred))print(c)#离群点检验outliers = fit.get_influence()#高杠杆值点(帽子矩阵)leverage = outliers.hat_matrix_diag#dffits值dffits = outliers.dffits[0]#学生化残差resid_stu = outliers.resid_studentized_external#cook距离cook = outliers.cooks_distance[0]#covratio值covratio = outliers.cov_ratio#将上面的几种异常值检验统计量与原始数据集合并contat1 = pd.concat([pd.Series(leverage,name = 'leverage'),pd.Series(dffits,name ='dffits'),pd.Series(resid_stu,name = 'resid_stu'),pd.Series(cook,name = 'cook'),pd.Series(covratio,name ='covratio'),],axis = 1)ccpp_outliers = pd.concat([ccpp,contat1],axis = 1)d = ccpp_outliers.head()print(d) #计算异常值数量的比例outliers_ratio = sum(np.where((np.abs(ccpp_outliers.resid_stu)>2),1,0))/ccpp_outliers.shape[0]e = outliers_ratioprint(e)#删除异常值ccpp_outliers = ccpp_outliers.loc[np.abs(ccpp_outliers.resid_stu)<=2,]#重新建模fit2 = sm.formula.ols('PE~AT+V+AP',data = ccpp_outliers).fit()f = fit2.summary()# print(f)pred2 = fit2.predict()g = np.sqrt(mean_squared_error(ccpp_outliers.PE,pred2))print(g)##残差的正态性检验(直方图法)resid = fit2.resid#中文和负号的正常显示# plt.rcParams['font.sans=serif'] = ['Microsoft YaHei']plt.rcParams['font.sans-serif'] = ['SimHei']# plt.rcParams['font.sans=serif'] = 'sans-serif'plt.rcParams['axes.unicode_minus'] = Falseplt.hist(resid,bins = 100,normed = True,color = 'steelblue',edgecolor = 'k')#设置坐标轴标签和标题plt.title('残差直方图')plt.ylabel('密度值')#生成正态曲线的数据x1 = np.linspace(resid.min(),resid.max(),1000)normal = mlab.normpdf(x1,resid.mean(),resid.std())#绘制正态分布曲线plt.plot(x1,normal,'r-',linewidth = 2,label = '正态分布曲线')#生成核密度曲线的数据kde = mlab.GaussianKDE(resid)x2 = np.linspace(resid.min(),resid.max(),1000)#绘制核密度曲线plt.plot(x2,kde(x2),'k-',linewidth = 2,label = '核密度曲线')#去除图形顶部边界和右边界的刻度plt.tick_params(top = 'off',right = 'off')#显示图例plt.legend(loc='best')#显示图形plt.show()#生成的正态曲线的数据pp_qq_plot = sm.ProbPlot(resid)pp_qq_plot.ppplot(line = '45')plt.title('P-P图')pp_qq_plot.qqplot(line = 'q')plt.title('Q-Q图')plt.show()#残差的正态性检验(非参数法)standard_resid = (resid-np.mean(resid))/np.std(resid)g = stats.kstest(standard_resid,'norm')print(g)# 总结:由于shapiro正态性检验对样本量的需求是5000以内,而本次数据集样本量有9000多,故选择k-s来完成正态性检验。# 从k-s检验的p值来看,拒绝了残差服从正态分布的假设,即认为残差并不满足正态性假设这个前提。# 如果残差不服从正态分布的话,建议对Y变量进行box-cox变换处理。# 由于fit2模型的残差并没有特别明显的偏态(偏度为0.058,接近于0),故这里就不对Y进行变换。 # # import scipy.stats as stats# #找到box-cox变换的Lambda系数# lamd = stats.boxcox_normmax(vif.y,method = 'mle')# #对y进行变换# vif['trans_y'] = stats.boxcox(vif.y,lamd)# #建模# fit3 = sm.formula.ols('y~x1+x2...',data = vif).fit()# fit3.summary()以上这篇python3 线性回归验证方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
Python3利用Axes3D库画3D模型图,供大家参考,具体内容如下最近在学习机器学习相关的算法,用python实现。自己实现两个特征的线性回归,用Axes3
本文实例讲述了Python实现的简单线性回归算法。分享给大家供大家参考,具体如下:用python实现R的线性模型(lm)中一元线性回归的简单方法,使用R的wom
前言说到如何用Python执行线性回归,大部分人会立刻想到用sklearn的linear_model,但事实是,Python至少有8种执行线性回归的方法,skl
本文实例讲述了Python实现的线性回归算法。分享给大家供大家参考,具体如下:用python实现线性回归UsingPythontoImplementLineRe
一、线性回归的理论1)线性回归的基本概念线性回归是一种有监督的学习算法,它介绍的自变量的和因变量的之间的线性的相关关系,分为一元线性回归和多元的线性回归。一元线