线性回归预测的非常大的值



我正在尝试在Python中运行线性回归,以确定房价给定许多功能。其中一些是数字,有些是非数字的。我正在尝试为非数字列进行一个热编码,并将新的数字列连接到旧的数据框架并删除非数字列。这是在培训数据和测试数据上完成的。

然后,

i占据了两个列功能的交集(因为我有一些仅位于测试数据中的编码(。之后,它进入线性回归。代码如下:

non_numeric = list(set(list(train)) - set(list(train._get_numeric_data())))
train = pandas.concat([train, pandas.get_dummies(train[non_numeric])], axis=1)
train.drop(non_numeric, axis=1, inplace=True)
train = train._get_numeric_data()
train.fillna(0, inplace = True)
non_numeric = list(set(list(test)) - set(list(test._get_numeric_data())))
test = pandas.concat([test, pandas.get_dummies(test[non_numeric])], axis=1)
test.drop(non_numeric, axis=1, inplace=True)
test = test._get_numeric_data()
test.fillna(0, inplace = True)
feature_columns = list(set(train) & set(test))
#feature_columns.remove('SalePrice')
X = train[feature_columns]
y = train['SalePrice']
lm = LinearRegression(normalize = False)
lm.fit(X, y)
import numpy
predictions = numpy.absolute(lm.predict(test).round(decimals = 2))

我遇到的问题是,我将这些荒谬的高销售价格作为产出,而数亿美元的价格。在尝试一个热编码之前,我获得了数十万美元的合理数字。我在弄清楚什么变化时遇到了麻烦。

另外,如果有更好的方法来做到这一点,我会渴望听到它。

由于特征列中引入分类变量,您似乎遇到共线性,因为"一击"编码变量的特征列的总和始终是1。

>

如果您有一个分类变量,则需要在线性回归中设置" fit_intercept = false"(或删除单式编码变量的功能列之一(

如果您有一个以上的分类变量,则需要为每个类别的每个类别删除一个特征列,以打破截线性。

from sklearn.linear_model import LinearRegression
import numpy as np
import pandas as pd
In [72]:
df = pd.read_csv('/home/siva/anaconda3/data.csv')
df
Out[72]:
C1  C2  C3  y
0   1   0   0   12.4
1   1   0   0   11.9
2   0   1   0   8.3
3   0   1   0   3.1
4   0   0   1   5.4
5   0   0   1   6.2
In [73]:
y
X = df.iloc[:,0:3]
y = df.iloc[:,-1]
In [74]:
reg = LinearRegression()
reg.fit(X,y)
Out[74]:
LinearRegression(copy_X=True, fit_intercept=True, n_jobs=1, normalize=False)
In [75]:
_
reg.coef_,reg.intercept_
Out[75]:
(array([ 4.26666667, -2.18333333, -2.08333333]), 7.8833333333333346)
we find that co_efficients for C1, C2 , C3 do not make sense according to given X.
In [76]:
reg1 = LinearRegression(fit_intercept=False)
reg1.fit(X,y)
Out[76]:
LinearRegression(copy_X=True, fit_intercept=False, n_jobs=1, normalize=False)
In [77]:
reg1.coef_
Out[77]:
array([ 12.15,   5.7 ,   5.8 ])
we find that co_efficients makes much more sense when the fit_intercept was set to False

下面的类似问题的详细说明。

https://stats.stackexchange.com/questions/224051/oone-hot-vs-dummy-coding-incoding-in-scikit-scikit-learn

我在统计站点上发布了此信息,Ami Tavory指出,get_dummies应在合并的traintest DataFrame上运行,以确保在两个数据范围内都设置了相同的虚拟变量。这解决了问题。

最新更新