deep-residual-networks

    1

    1答えて

    私はKera:https://arxiv.org/pdf/1603.09056.pdfにこのペーパーを実装しようとしていますが、Skip接続でConv-Deconvを使用して画像ノイズ除去ネットワークを作成しています。私のネットワークは、対応するConv-Deconvレイヤー間の対称スキップ接続を作成するとかなりうまく動作しますが、入力と出力の間に(紙のように)接続を追加すると、ネットワークは訓練

    1

    1答えて

    私はぼかしやリサンプリングのような一定の畳み込みを計算したいと思います。 畳み込みカーネルを定数に初期化し、それをKerasの訓練から除外できますか? UPDATE 私は、docで宣言された目的のためにこれを使用する必要はありません。私はこのように残余ネットワークを実装したい:1つのブランチは通常の訓練可能な畳み込みを行い、並列ブランチは平均化のような一定の処理を行う。

    1

    1答えて

    残差ニューラルネットワークの残差ブロックでは、ブロックの真の要素加算の最後に加算が行われますか、それとも連結ですか? たとえば、[1,2,3,4]または[4,6]が加算([1,2]、[3,4])で生成されますか?

    -1

    1答えて

    私は、研究論文からこの画像を複製しようとしています。画像では、オレンジの矢印は残差学習を使用したショートカットを示し、赤で囲まれたレイヤーは拡張された畳み込みを示します。 以下のコードでは、r5はイメージに見られるreluの結果です。簡単にするために、relu層とdilation層の間のコードを除外しました。 テンソルフローでは、残差ショートカットを実行するためにreluとdilated conv