ケラスモデル内でテンソルフロー演算を使用しようとしています。以前はラムダレイヤーでラップしようとしましたが、レイヤーの逆伝播を無効にすると思います。ケラスモデルのテンソルフロー
より具体的には、Kerasレイヤーに移植することなく、のレイヤーをKerasモデルで使用しようとしています(後ほどtensorflowにデプロイしてください)。これらのレイヤーを共有ライブラリのフォームでコンパイルし、これらをPythonにロードすることができます。これは私にテンソルフロー操作を与え、私はKerasモデルでこれをどのように組み合わせるのか分かりません。
たとえば、Conv2Dレイヤーがtf.nn.conv2d opに置き換えられたKeras MNISTモデルの簡単な例は、私が探しているものと正確に同じです。
私はthisチュートリアルを見てきましたが、私が探しているものとは逆のことをしているようです。テンソルフローグラフにケラス層を挿入しているようです。私は正反対のことを探しています。
敬具、 ハンス
'ラムダ 'レイヤーはバックプロパゲーションを無効にすべきではありません。あなたがそれを試みたとき何が起こったのですか? – mrry
おそらく私は何が起こったのか誤解しましたが、(作業中の)Keras MNISTの例をtf操作(https://gist.github.com/hgaiser/9d38ac49424f400c161c8086ff864d08)に変更しました。そのネットワークは訓練していないようでした(0.1 acc)。また、その要約は訓練可能なパラメータを示さない。分かりやすくするために、私のネットワークがバックプロパゲーションを全くしていないというわけではありません。ちょうどラムダ層がバックプロパゲーションに寄与していないということです。ネットワークがラムダレイヤーのみで構成されている場合、トレーニングはまったくありません。 –