2017-05-30 3 views
0
X = np.array(df.drop([label], 1)) 
X_lately = X[-forecast_out:] 
X = X[:-forecast_out] 
df.dropna(inplace=True) 
y = np.array(df[label]) 

X_train, X_test, y_train, y_test = cross_validation.train_test_split(X, y, test_size=0.2) 

linReg.fit(X_train, y_train) 

私は、新しいスプレッドシートで同じモデルに合うたびに、ポイントを追加してモデルをより堅牢にするという前提で、異なるスプレッドシートからのデータを繰り返し回帰式分類器にフィッティングしました。Sklearn Linear Regressionクラシファイアを複数回フィッティングするか、データポイントを追加するか、またはそれらを置き換えるだけですか?

この仮定は正しいですか?それとも、フィットするたびにモデルを拭いていますか?

もしそうなら、私のモデルをこの「累積型」効果のために複数回適合させる方法はありますか?

答えて

2

線形回帰はバッチ(別名オフライン)トレーニング方法です。新しいパターンで知識を追加することはできません。だから、sklearnはモデル全体を再フィットしています。データを追加する唯一の方法は、新しいパターンを元のトレーニングのX, Y行列に追加して再フィットすることです。

+0

ありがとう、私は何千ものデータフレームを結合し始めます! –

0

あなたはほぼ確実に最初からモードランドを拭き取っています。必要な作業を行うには、追加データをデータフレームの最後に追加し、それを使って再フィットする必要があります。

+0

「ほぼ確実」と回答した場合、upvotedの可能性は低くなります。彼らはコメントとして良いです。いったん引用をすれば、コミュニティはそれを良い答えと見なす傾向があります。 –

関連する問題