(编辑:jimmy 日期: 2024/11/16 浏览:2)
多项式回归是一种线性回归形式,其中自变量x和因变量y之间的关系被建模为n次多项式。多项式回归拟合x的值与y的相应条件均值之间的非线性关系,表示为E(y | x)
为什么多项式回归:
多项式回归的使用:
这些基本上用于定义或描述非线性现象,例如:
回归分析的基本目标是根据自变量x的值来模拟因变量y的期望值。在简单回归中,我们使用以下等式 y = a + bx + e
这里y是因变量,a是y截距,b是斜率,e是误差率。
在许多情况下,这种线性模型将无法解决。例如,如果我们在这种情况下根据合成温度分析化学合成的产生,我们使用二次模型y = a + b1x + b2 ^ 2 + e
这里y是x的因变量,a是y截距,e是误差率。
通常,我们可以将其建模为第n个值。y = a + b1x + b2x ^ 2 + .... + bnx ^ n
由于回归函数在未知变量方面是线性的,因此这些模型从估计的角度来看是线性的。
因此,通过最小二乘技术,让我们计算y的响应值。
Python中的多项式回归:
要获得用于分析多项式回归的数据集,请单击此处。
步骤1:导入库和数据集
导入重要的库和我们用于执行多项式回归的数据集。
# Importing the libraries import numpy as np import matplotlib.pyplot as plt import pandas as pd # Importing the dataset datas = pd.read_csv('data.csv') datas
第2步:将数据集分为2个组件
将数据集划分为两个组件,即X和yX将包含1到2之间的列.y将包含2列。
X = datas.iloc[:, 1:2].values y = datas.iloc[:, 2].values
第3步:将线性回归拟合到数据集
拟合线性回归模型在两个组件上。
# Fitting Linear Regression to the dataset from sklearn.linear_model import LinearRegression lin = LinearRegression() lin.fit(X, y)
第4步:将多项式回归拟合到数据集
将多项式回归模型拟合到两个分量X和y上。
# Fitting Polynomial Regression to the dataset from sklearn.preprocessing import PolynomialFeatures poly = PolynomialFeatures(degree = 4) X_poly = poly.fit_transform(X) poly.fit(X_poly, y) lin2 = LinearRegression() lin2.fit(X_poly, y)
步骤5:在此步骤中,我们使用散点图可视化线性回归结果。
# Visualising the Linear Regression results plt.scatter(X, y, color = 'blue') plt.plot(X, lin.predict(X), color = 'red') plt.title('Linear Regression') plt.xlabel('Temperature') plt.ylabel('Pressure') plt.show()
步骤6:使用散点图可视化多项式回归结果。
# Visualising the Polynomial Regression results plt.scatter(X, y, color = 'blue') plt.plot(X, lin2.predict(poly.fit_transform(X)), color = 'red') plt.title('Polynomial Regression') plt.xlabel('Temperature') plt.ylabel('Pressure') plt.show()
步骤7:使用线性和多项式回归预测新结果。
# Predicting a new result with Linear Regression lin.predict(110.0)
# Predicting a new result with Polynomial Regression lin2.predict(poly.fit_transform(110.0))
使用多项式回归的优点:
使用多项式回归的缺点
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。