データはあなたがGridSearchを実行しようとすることができる合理的な大きさを持っている場合、明らかにあなたがテキストで作業しているので、この例を考えてみ::
def main():
pipeline = Pipeline([
('vect', TfidfVectorizer(ngram_range=(2,2), min_df=1)),
('clf',SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0, degree=3,
gamma=1e-3, kernel='rbf', max_iter=-1, probability=False, random_state=None,
shrinking=True, tol=0.001, verbose=False))
])
parameters = {
'vect__max_df': (0.25, 0.5),
'vect__use_idf': (True, False),
'clf__C': [1, 10, 100, 1000],
}
X, y = X, Y.as_matrix()
X_train, X_test, y_train, y_test = train_test_split(X, y, train_size=0.5)
grid_search = GridSearchCV(pipeline, parameters, n_jobs=-1, verbose=1, scoring='accuracy')
grid_search.fit(X_train, y_train)
print 'Best score: %0.3f' % grid_search.best_score_
print 'Best parameters set:'
best_parameters = grid_search.best_estimator_.get_params()
for param_name in sorted(parameters.keys()):
print '\t%s: %r' % (param_name, best_parameters[param_name])
if __name__ == '__main__':
main()
私はベクトル化注意私のデータ(テキスト)はtf-idfです。 scikit-learnプロジェクトもRandomizedSearchCVを実装しています。最後に、遺伝的プログラミングを使用するTpotプロジェクトのような他の興味深いツールもあります。