異なるセンサから複数の特徴ベクトルを抽出し、SVMを個別に使用してこれらの機能を訓練しました。 ありがとうございました複数のSVM分類器(または「任意のML分類器」をscikit-learnを使用して組み合わせる方法「決定特徴分類器」
答えて
まず最初に - 別のモデルを訓練するというアイデアはかなり悪いです。あなたには非常に良い理由がない限り(一部の外部なぜなら、情報を効率的に失うため、2つのクラシファイアからの信号間の複雑な依存関係をモデリングすることはできません。すべてをトレーニングはstatistiを与えますどのようなデータを使用するかを選択することができます。たとえば、特定のタイプのデータでは入力の一部を使用し、残りの部分は使用します。独立した分類子を作成するとき、残りのものが存在するということは「分からない」ため、プロセス全体にバイアスをかけます。
これは、ここでは何とかあなたが共同モデルを学ぶことができないと仮定した解決策です。このようなシナリオ(モデルが入力表現を決定関数に変換するブラックボックスのようなものである場合)の基本的な考え方は、それらをプリプロセッサとして扱い、新しいモデルをその上にフィットさせることです。言い換えると、データポイントxを特徴ベクトルx1、x2、...、xkとk個の異なるモデルに分割することができます。mi
以前に作成したものを使用して、前処理メソッドf(x) = [m1(x1), m2(x2), ..., mk(xk)]
を作成します。 R^k空間は、これらの情報をどのように組み合わせるかを知るために新しい分類器に適合させることができる。問題のある部分は、非常に具体的なプロセスのために、新しいトレーニングセットを組み合わせルールを習得する必要があります。構築に使用されたのと同じデータを使用すると、簡単にオーバーフィットにつながります。そのような人々と戦うために、時にはヒューリスティックなアプローチを使うこともあります。これらのモデルは既に十分であり、クラスの投票(例えば、certeintyによって重み付けされる)またはその周りのシステム全体を構築するアンサンブルを構築することを前提としています。私はまだあなたが最初にこのようにしてはいけないと主張します。新しいデータを使って組み合わせ規則を学習する必要がある場合、そして最後に上記のいずれかを行うことができない場合は、ヒューリスティックなアンサンブル技術。
- 1. 複数のバイナリ分類器を組み合わせる
- 2. 分類器を正しく組み合わせる方法は?
- 3. スタンフォード分類器対ウェカ分類器
- 4. nltk naivebayesテキスト分類用の分類器
- 5. ナイーブベイズ分類器
- 6. スケーラブルニューラルネットワークsoftmax分類器
- 7. GLCM機能を使用したSVM分類器
- 8. Tensorflowの複数ラベル分類器
- 9. wekaのベースライン分類器
- 10. ナイーブベイズ分類器の精度
- 11. スパークMLのdecisiontree分類器は、私がMLライブラリから分類器を使用して、今、次のコードを実行しているランダムフォレスト法
- 12. F1スコアに基づいて分類器の出力を組み合わせる
- 13. 分類器から訓練特徴名のリストを取得
- 14. scikit平均パーセプトロン分類器
- 15. スタンフォード-nlpナイーブベイズ分類器トレーニング
- 16. バイナリ分類のためのマルチクラス分類器の訓練
- 17. 分類器のWeka確率分布
- 18. pandas DataFrameのデータを使用したsklearnのSVM分類器の適合
- 19. ベイズ大集合のネット分類器
- 20. Caffe Image分類されていない画像の分類器
- 21. NLTKによるセンチメント分類ナイーブベイズ分類器
- 22. IBM視覚認識分類器の状態は、単純な分類器を作成するための
- 23. レビューで分類器をテストする
- 24. 異なる機能のアンサンブル分類器
- 25. どの分類器がテキスト分類の精度を向上させるか
- 26. OpenCvを使用した画像特徴分類のSVM
- 27. 分類器へのRandomizedSearchCVのポインティング
- 28. SVM分類器の精度向上のテクニック
- 29. バイナリデータを持つナイーブベイズ分類器
- 30. Heroku Pythonで分類器をロード
**あなたは**単一機能**の分類子を訓練したという意味ですか? – lejlot