this schemeのようなテンソルフローでCLDNNの実装を記述しようとしています。次元削減レイヤに問題があります。CLDNNの次元削減(テンソルフロー)
私が理解する限り、それはいくつかの積み重ねられた制限付きボルツマンマシン(RBMs)で作られ、オートエンコーダーのように機能します。層のデコーダ部分は、井戸寸法を減少させるためにエンコーダを訓練するためのものである。エンコーダの出力を次のレイヤーの入力に「差し込み」たいという意味です。
自動エンコーダーをトレーニングする損失関数(デコードされた出力からの入力を比較する)と、グラフ全体を訓練する他の損失関数を定義できます。私はこれらの2つの損失関数を訓練する方法がありますか? ここで問題を誤解しているかもしれませんが、オートエンコーダのデコーダ部分がちょっと残って "ループの外"になってしまい、訓練されなくなってしまっているように感じています。
私は、このようなオートエンコーダの実装、およびconvolutionnal層などを発見した...しかし、私は本当に(スキームのように)
このような質問は、http://stats.stackexchange.com –