X = np.array(df.drop([label], 1))
X_lately = X[-forecast_out:]
X = X[:-forecast_out]
df.dropna(inplace=True)
y = np.array(df[label])
X_train, X_test, y_train, y_test = cross_validation.train_test_split(X, y, test_size=0.2)
linReg.fit(X_train, y_train)
私は、新しいスプレッドシートで同じモデルに合うたびに、ポイントを追加してモデルをより堅牢にするという前提で、異なるスプレッドシートからのデータを繰り返し回帰式分類器にフィッティングしました。Sklearn Linear Regressionクラシファイアを複数回フィッティングするか、データポイントを追加するか、またはそれらを置き換えるだけですか?
この仮定は正しいですか?それとも、フィットするたびにモデルを拭いていますか?
もしそうなら、私のモデルをこの「累積型」効果のために複数回適合させる方法はありますか?
ありがとう、私は何千ものデータフレームを結合し始めます! –