画像セットから教師なしの機能を学習する方法はありますか?ニューラルネットワークが学習され、新しい文書が与えられるword2vecまたはdoc2vecと同様に、我々はその特徴を得る。ニューラルネットワークトレーニング後の画像の特徴抽出方法は?
https://dato.com/learn/gallery/notebooks/food_retrieval-public.htmlと同様に、学習したn-modelを読み込んで新しい画像の特徴を予測できることがわかります。
cnnイメージを実装してその機能を元に戻す簡単な例がありますか?
https://github.com/fchollet/keras/blob/master/examples/mnist_cnn.py すべてのX_trainとX_testのcnn機能を取得したいのですが...何らかの方法がありますか? また、イメージごとにレイヤーごとにウェイトを取得できる場合は、それらをスタックしてフィーチャーとして使用できます。その場合、同じものを得る方法があります。 教師なしタスクにこれらの機能を使用すると、それらをベクトルとみなす方が簡単になります。
ありがとう@Marcin ..私は論文を調べます。私が理解したかったのは、word2vecのように最後のレイヤーを削除し、隠れたレイヤーウェイトをフィーチャとして取ることでした...イメージの場合、まだ保持されているか、すべてのレイヤーからウェイトを取らなければなりませんか?そしてケラスv1.0については大きな変化があります...私は自動エンコーダも見ていません! –
Cool。特定のレイヤーからのフィーチャーの重要性を理解するには、ビジュアライゼーションが良い考えです。更新された答えをありがとう。私は浅いネットワークから深いネットワークに移動しています。再度、感謝します !! –