1

私はサイズnの入力を持つニューラルネットワークを持っており、それをサイズn + mの入力がm> 0のネットワークに拡張したいと考えています。ニューラルネットワークの入力長を増やす方法は?

詳細: 私は、入力としてインスタンスの確率分布を取得し、バイナリ値を出力する分類器を訓練しています。例えば、私のデータセットの各インスタンスが10の異なるラベルを持つことができるとしましょう(例えばMNIST)、私はすべてのインスタンスの確率分布を持っています。これらのインスタンスをGood/Badとして分類したいとしましょう。 1つのデータセット(MNIST)でモデルを訓練した後、100個の異なるラベルを持つcifar-100のような別のデータセットに展開したいとしましょう。私は、あるデータセットで訓練され、別のデータセットで訓練されるモデル(ニューラルネットワーク)を設計したいと考えています。 たとえば、ImageNetでAlexNetを訓練し、最後のレイヤーを削除し、サイズの異なる別のレイヤーを追加して、別のデータセットでそれを微調整します。 制約がネットワークの出力ではなく入力にある場合、私はどのように同様のことをすることができますか?可変長入力を持つネットワークを設計することは可能ですか?あるいは、おそらく1,2層を変更し、別のデータセットでネットワークを微調整することは可能ですか? [問題は解決していますか? :)]

答えて

0

OpencvまたはPILを使用してCIFAR-100(32x32)でイメージのサイズを変更して、MNIST(28x28)のサイズにして、Deep Belief Networksを使用して画像上の監督されていない微調整を行うことができます。

関連する問題