scikit-learn

    1

    1答えて

    私は自分のデータのトレーニングとテストにsklearnライブラリを使用しています。 targetDataCsv = pd.read_csv("target.csv","rt")) testNormalizedCsv = csv.reader(open("testdf_new.csv","rt",encoding="utf-8")) traningNormalizedCsv = pd.read_

    0

    2答えて

    私はsklearnを使って多次元スケーリング解析を実行しようとしている16,000x16,000の対称行列を持っています。私は独特の相違度の計算を作成したので私自身の行列を使う必要があります。計算はdf.pivotを使用する前に実行され、すべての計算はnp.float64タイプを使用して実行されました。 私は分析を実行すると、私は以下のように対称のエラーが表示されます。 C:\Users\name

    0

    1答えて

    大きなデータセットでnu-SVRモデルを実行していますが、sklearnを使用していますが、トレーニングに時間がかかりすぎてグリッド検索も使用しません最良のパラメータのために、私はCとnuパラメータを固定しました。 clf = NuSVR(kernel="rbf",C=15.0, nu=0.3) とにかくトレーニングをスピードアップするにはどうしますか?

    -3

    1答えて

    私はscikit-learnアンサンブル分類器を分類に使用しています。私は別々のトレーニングとテストデータセットを持っています。私は同じデータセットを使用し、機械学習アルゴリズムを使用して分類すると一貫した精度が得られます。不一致は、アンサンブル分類子の場合のみです。私も0 bag_classifier = BaggingClassifier(n_estimators=10,random_stat

    0

    1答えて

    Sklearnアルゴリズムでは、Sklearnアルゴリズムで学習するための機能とラベルが必要です。 私はいくつかのデータを含むCSVファイルを持っています。これらのデータは実際に、参加者がアフィリエイトネットワークの膨大な個人のデータとその広告クリックパフォーマンスから学ぶ学習アルゴリズムを作成する必要があるhackerearthウェブサイトからの挑戦であり、アフィリエイトネットワーク内の他の個人

    0

    1答えて

    私はPythonで、生のチャットデータとクラスターセンテンスを同様の意図で処理できるように開発しようとしています。そのため、新しいチャットボットを構築するためのトレーニング例として使用できます。目標はできるだけ迅速かつ自動(すなわち、手動で入力するパラメータなし)にすることです。 1-特徴抽出のために、私はそれぞれの文をトークン化し、その語をステミングし、SklearnのTfidfVectoriz

    0

    1答えて

    グリッドで2つのプロセッサとプリプロセッサを検索するコードを記述したいだけでなく、さまざまな機能の組み合わせにも対応しています。私はgridsearchCVの中でRFECVを使ってこれを行いました。しかし、これは実行に時間がかかります。そのため、私はその順序を逆転させた。私はグリッド検索を行い、それをRFECVの中に入れました。今、最高のモデルで実際にどの機能が選択されているかを確認して印刷します

    1

    1答えて

    は、私は簡単な辞書でsklearnからLabelBinarizerのパフォーマンスを比較しようとしています:2.9169740676879883秒--- start_time = time.time() result = lb.transform(sample_list*1000000) print("--- %s seconds ---" % (time.time() - start_tim

    0

    1答えて

    graphvizを使用して意思決定ツリーを視覚化しようとしていますが、意思決定ツリーをプロットしようとしています。 ~\AppData\Local\Continuum\anaconda3\lib\site-packages\sklearn\tree\export.py in export_graphviz(decision_tree, out_file, max_depth, feature_na