时间:2021-05-22
多元函数拟合。如 电视机和收音机价格多销售额的影响,此时自变量有两个。
python 解法:
import numpy as npimport pandas as pd#import statsmodels.api as sm #方法一import statsmodels.formula.api as smf #方法二import matplotlib.pyplot as pltfrom mpl_toolkits.mplot3d import Axes3D df = pd.read_csv('http://www-bcf.usc.edu/~gareth/ISL/Advertising.csv', index_col=0)X = df[['TV', 'radio']]y = df['sales'] #est = sm.OLS(y, sm.add_constant(X)).fit() #方法一est = smf.ols(formula='sales ~ TV + radio', data=df).fit() #方法二y_pred = est.predict(X) df['sales_pred'] = y_predprint(df)print(est.summary()) #回归结果print(est.params) #系数 fig = plt.figure()ax = fig.add_subplot(111, projection='3d') #ax = Axes3D(fig)ax.scatter(X['TV'], X['radio'], y, c='b', marker='o')ax.scatter(X['TV'], X['radio'], y_pred, c='r', marker='+')ax.set_xlabel('X Label')ax.set_ylabel('Y Label')ax.set_zlabel('Z Label')plt.show()拟合的各项评估结果和参数都打印出来了,其中结果函数为:
f(sales) = β0 + β1*[TV] + β2*[radio]
f(sales) = 2.9211 + 0.0458 * [TV] + 0.188 * [radio]
图中,sales 方向上,蓝色点为原 sales 实际值,红色点为拟合函数计算出来的值。其实误差并不大,部分数据如下。
同样可拟合一元函数;
import numpy as npimport pandas as pdimport statsmodels.formula.api as smfimport matplotlib.pyplot as pltfrom mpl_toolkits.mplot3d import Axes3D df = pd.read_csv('http://www-bcf.usc.edu/~gareth/ISL/Advertising.csv', index_col=0)X = df['TV']y = df['sales'] est = smf.ols(formula='sales ~ TV ', data=df).fit()y_pred = est.predict(X)print(est.summary())fig = plt.figure()ax = fig.add_subplot(111)ax.scatter(X, y, c='b')ax.plot(X, y_pred, c='r')plt.show()Ridge Regression:(岭回归交叉验证)
岭回归(ridge regression, Tikhonov regularization)是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法,对病态数据的拟合要强于最小二乘法。通常岭回归方程的R平方值会稍低于普通回归分析,但回归系数的显著性往往明显高于普通回归,在存在共线性问题和病态数据偏多的研究中有较大的实用价值。
import numpy as npimport pandas as pdimport matplotlib.pyplot as pltfrom sklearn import linear_modelfrom mpl_toolkits.mplot3d import Axes3D df = pd.read_csv('http://www-bcf.usc.edu/~gareth/ISL/Advertising.csv', index_col=0)X = np.asarray(df[['TV', 'radio']])y = np.asarray(df['sales']) clf = linear_model.RidgeCV(alphas=[i+1 for i in np.arange(200.0)]).fit(X, y)y_pred = clf.predict(X)df['sales_pred'] = y_predprint(df)print("alpha=%s, 常数=%.2f, 系数=%s" % (clf.alpha_ ,clf.intercept_,clf.coef_)) fig = plt.figure()ax = fig.add_subplot(111, projection='3d')ax.scatter(df['TV'], df['radio'], y, c='b', marker='o')ax.scatter(df['TV'], df['radio'], y_pred, c='r', marker='+')ax.set_xlabel('TV')ax.set_ylabel('radio')ax.set_zlabel('sales')plt.show()输出结果:alpha=150.0, 常数=2.94, 系数=[ 0.04575621 0.18735312]
以上这篇Python 普通最小二乘法(OLS)进行多项式拟合的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文实例为大家分享了Python曲线拟合的最小二乘法,供大家参考,具体内容如下模块导入importnumpyasnpimportgaosiasgs代码"""本函
本文实例讲述了Python基于最小二乘法实现曲线拟合。分享给大家供大家参考,具体如下:这里不手动实现最小二乘,调用scipy库中实现好的相关优化函数。考虑如下的
线性回归在整个财务中广泛应用于众多应用程序中。在之前的教程中,我们使用普通最小二乘法(OLS)计算了公司的beta与相对索引的比较。现在,我们将使用线性回归来估
一、多项式拟合多项式拟合的话,用的的是numpy这个库的polyfit这个函数。那么多项式拟合,最简单的当然是,一次多项式拟合了,就是线性回归。直接看代码吧im
第一种是进行多项式拟合,数学上可以证明,任意函数都可以表示为多项式形式。具体示例如下。###拟合年龄importnumpyasnpimportmatplotli