2016-10-12 5 views
0

im new to python。python scikit線形回帰奇妙な結果

matplotlibを使用して、線形回帰の結果をプロットすることができます。

いくつかの基本的なデータを試してみましたが、実際のデータで試してみましたが、回帰直線は間違っています。私はfit()やpredict()関数で何か間違っていると思う。

これはコードである:

import matplotlib.pyplot as plt 
from sklearn import linear_model 
import scipy 
import numpy as np 
regr=linear_model.LinearRegression() 
A=[[69977, 4412], [118672, 4093], [127393, 12324], [226158, 15453], [247883, 8924], [228057, 6568], [350119, 4040], [197808, 6793], [205989, 8471], [10666, 632], [38746, 1853], [12779, 611], [38570, 1091], [38570, 1091], [95686, 8752], [118025, 17620], [79164, 13335], [83051, 1846], [4177, 93], [29515, 1973], [75671, 5070], [10077, 184], [78975, 4374], [187730, 17133], [61558, 2521], [34705, 1725], [206514, 10548], [13563, 1734], [134931, 7117], [72527, 6551], [16014, 310], [20619, 403], [21977, 437], [20204, 258], [20406, 224], [20551, 375], [38251, 723], [20416, 374], [21125, 429], [20405, 235], [20042, 431], [20016, 366], [19702, 200], [20335, 420], [21200, 494], [22667, 487], [20393, 405], [20732, 414], [20602, 393], [111705, 7623], [112159, 5982], [6750, 497], [59624, 418], [111468, 10209], [40057, 1484], [435, 0], [498848, 17053], [26585, 1390], [75170, 3883], [139146, 3540], [84931, 7214], [19144, 3125], [31144, 2861], [66573, 818], [114253, 4155], [15421, 2094], [307497, 5110], [484904, 10273], [373476, 36365], [128152, 10920], [517285, 106315], [453483, 10054], [270763, 17542], [9068, 362], [61992, 1608], [35791, 1747], [131215, 6227], [4314, 191], [16316, 2650], [72791, 2077], [47008, 4656], [10853, 1346], [66708, 4855], [214736, 11334], [46493, 4236], [23042, 737], [335941, 11177], [65167, 2433], [94913, 7523], [454738, 12335]] 
#my data are selected from a Mysql DB and stored in np array like this one above. 



regr.fit(A,A[:,1]) 
plt.scatter(A[:,0],A[:,1], color='black') 
plt.plot(A[:,1],regr.predict(A), color='blue',linewidth=3) 
plt.show() 

もの希望Aの最初の列、第2列からのデータを用いて回帰直線です。そして、これが結果です:

enter image description here

私は外れ値の存在は、出力への影響をhavilyできることを知っているが、私は、回帰のために、他の通行料をしようとした回帰直線はどこのポイントエリアにたくさん近かったですそう、私は何かが不足していると確信しています。

ありがとうございます。

EDIT 1:提案通り私は再びplot()paramだけを変更しようとしました。代わりに[:0] [1] iが使用され、これが結果である:

enter image description here

scikit-learn.org/stable/modules/linear_model.htmlで簡単な例、ルックス私のもののように。私は予測が必要ないので、トレーニングとテストセットでデータをスライスしなかったかもしれません。おそらく、 "X、y"の意味を誤解していますが、リンクの例を見れば、私のように見えます。

EDIT 2:ついにそれが働いた。

X=A[:,0] 
X=X[:,np.newaxis] 
regr=linear_model.LinearRegression() 
regr.fit(X,A[:,1]) 
plt.plot(X,regr.predict(X)) 

Xパラメータは2次元配列である必要があります。 EDIT 1の例では、本当に私をmisleaded :(。

答えて

0

あなたは目標を含めているように見えるあなたのトレーニングデータでA[:, 1]値。フィッティングコマンドの形式regr.fit(X, y)である。

またに問題があるように見えますこのライン:

plt.plot(A[:,1],regr.predict(A), color='blue',linewidth=3)

私はあなたがにPLにしたい場合、あなたは、A[:, 0]A[:, 1]を交換する必要がありすべきだと思います予測値に対するあなたの予測をotします。

最初にXyにデータを分割する方が簡単な場合があります。詳細が分かりやすくなることがあります。