2017-07-28 10 views
1

私は、非線形関数に近似できる任意の数の隠れ層を持つニューラルネットワークを理解していますが、特にいくつかの統計的方法と同じようにいくつかの特殊関数を予測することはできますか?ニューラルネットワークやその他の監視学習アルゴリズムは、特別な統計的方法を学習できますか?

分類問題の統計的ルールを以下のように仮定します。トレーニングセット入力X_trainおよび出力Y_trainに対して、我々は各特定のクラスに属するX_trainの幾何平均(すなわち、特定のクラスごとのX_trainの中心)を計算する。したがって、クラスごとにXの中心があります。テストデータの場合は、訓練された中心までの最短ユークリッド距離を見つけることによってクラスラベルを推定します。例えば、トレーニングが(-1,1,1) - > 0、(1,1,1) - > 1というマッピングを中心にしていると仮定します。テストデータ(-0.8,0.5,1)の場合は、(-1,1,1)に近いので、クラス0に属するはずです。

問題は教師付き学習があるかどうかわかりません方法は上記の戦略を行うことができます。私はそれを「監督されたk-means」と呼ぶだろう。 KNN法も同様ですが、すべてのトレーニングポイントの平均ではなく、N-nearest-pointsに基づいてラベルが検索されます。

ニューラルネットワークがこれを行うことができるかどうか疑問に思っています。あるいは、私は上記の戦略を実際に行うことができる他の学習テクニックが欠けていますか?私が学ぶことを試みる統計的戦略がより複雑である場合、例えば中心分散と共分散の両方を含む場合はどうでしょうか?

答えて

0

このような問題に対してニューラルネットワークを使用するには、オーバーシュートがあります。

Linear discriminant analysisGaussian naive Bayesあなたの説明に似た何かをしてください。彼らは、算術平均として各クラスの中心を推定し、各点を最も近い中心に関連付ける。しかし、彼らはユークリッドの代わりに修正された距離を計算する。GNBは各特徴の条件付き分散を推定し、LDAは共分散を推定する。また、クラスの確率も考慮に入れています。これらの変更はおそらくあなたの分類を改善するだろうが、あなたがそれらを必要としないならば、あなた自身のアルゴリズムを書くことができる。

関連する問題