0

私はPythonで画像認識プロジェクトを行っています。私は自己組織化マップ(SOM)によって実行されるクラスタリングが監督されたニューラルネットワークに入力されると、監督されたネットワークとは対照的に画像認識の精度が向上するというジャーナルを読んだ。私はクラスタリングを実行するためにライブラリを使用し、各繰り返し後にケラから多層パーセプトロンへの入力として勝利ニューロンの座標を使用することによってこれを自分自身で試みました。しかし、精度は非常に悪いです。Pythonで自己組織化マップと多層パーセプトロンを組み合わせる方法

勝者のSOM座標を使用する以外に、SOMと多層パーセプトロンを組み合わせる別の方法を知っている人はいますか?

+0

私は正しいことを理解していない場合、私は今はしません。最初にSOM層を訓練し、教師なしの訓練を受けてMLPにニューロンの座標を当てるのですか? – viceriel

+0

はい、まず入力した画像をクラスタリングするSOMをトレーニングします。監督されていないSOMのトレーニングの後、勝利x、y座標を2dのnumpyの配列に格納し、これをMLPに入力しますが、MLPのテスト精度は本当に低いので、別の方法があるかどうか疑問に思っています –

+0

[ハイブリッドSOM(with MLP)](https://stackoverflow.com/questions/36434218/hybrid-som-with-mlp)の重複の可能性があります。 –

答えて

1

SOMを使用する別の方法は、ベクトル量子化です。優勝したSOM座標を使用するのではなく、勝利したニューロンのコードブック値を使用します。どの記事を読んでいるのかはっきりしていませんが、SOMをMLPに入れたほうが特定のケースでより正確な精度しか得られないと言いました。また、次元性や地図サイズなどのパラメータを賢明に選択する必要があります。

イメージ処理の場合、オートエンコーダまたは畳み込みニューラルネットワーク(CNN)は、SOM + MLPアーキテクチャでは決まっていないかどうかを調べるために、SOMの最先端の代替手段です。

0

私は、SOMの各ノードにマッピングされた入力のための別個の監視されたニューラルネットワークを訓練するための走行距離があるかどうか疑問に思っています。次に、各SOMノードへの入力データ・マッピングのサブセットについて個別の監視学習を行います。各ノードに接続されたネットワークは、おそらく入力空間全体を処理しなければならない1つの大きなネットワークよりも小さく、より簡単に訓練されます。また、隣接するSOMノードにマッピングされる入力ベクトルを含めることによる利点もあり得る。

これは調査対象であることをご存じですか?

関連する問題