2016-05-07 20 views

答えて

0

まず最初に - 別のモデルを訓練するというアイデアはかなり悪いです。あなたには非常に良い理由がない限り(一部の外部なぜなら、情報を効率的に失うため、2つのクラシファイアからの信号間の複雑な依存関係をモデリングすることはできません。すべてをトレーニングはstatistiを与えますどのようなデータを使用するかを選択することができます。たとえば、特定のタイプのデータでは入力の一部を使用し、残りの部分は使用します。独立した分類子を作成するとき、残りのものが存在するということは「分からない」ため、プロセス全体にバイアスをかけます。

これは、ここでは何とかあなたが共同モデルを学ぶことができないと仮定した解決策です。このようなシナリオ(モデルが入力表現を決定関数に変換するブラックボックスのようなものである場合)の基本的な考え方は、それらをプリプロセッサとして扱い、新しいモデルをその上にフィットさせることです。言い換えると、データポイントxを特徴ベクトルx1、x2、...、xkとk個の異なるモデルに分割することができます。mi以前に作成したものを使用して、前処理メソッドf(x) = [m1(x1), m2(x2), ..., mk(xk)]を作成します。 R^k空間は、これらの情報をどのように組み合わせるかを知るために新しい分類器に適合させることができる。問題のある部分は、非常に具体的なプロセスのために、新しいトレーニングセットを組み合わせルールを習得する必要があります。構築に使用されたのと同じデータを使用すると、簡単にオーバーフィットにつながります。そのような人々と戦うために、時にはヒューリスティックなアプローチを使うこともあります。これらのモデルは既に十分であり、クラスの投票(例えば、certeintyによって重み付けされる)またはその周りのシステム全体を構築するアンサンブルを構築することを前提としています。私はまだあなたが最初にこのようにしてはいけないと主張します。新しいデータを使って組み合わせ規則を学習する必要がある場合、そして最後に上記のいずれかを行うことができない場合は、ヒューリスティックなアンサンブル技術。

関連する問題