多くの論文で、バックグラウンド除去の前処理が計算量を減らすのに役立つことを読んだ。しかし、なぜこれが事実ですか?私の理解は、CNNはどのようにそれが満たされても、長方形のウィンドウ上で動作することです、0または肯定的です。バックグラウンド除去はCNNの計算をどのように減らすのに役立ちますか?
たとえば、thisを参照してください。
多くの論文で、バックグラウンド除去の前処理が計算量を減らすのに役立つことを読んだ。しかし、なぜこれが事実ですか?私の理解は、CNNはどのようにそれが満たされても、長方形のウィンドウ上で動作することです、0または肯定的です。バックグラウンド除去はCNNの計算をどのように減らすのに役立ちますか?
たとえば、thisを参照してください。
あなたが提供した論文では、画像全体をネットワークに渡していないようです。代わりに、白以外の背景から小さなパッチを選択しているようです。これは、データ内のノイズを低減するので意味がありますが、完全に接続されたレイヤーに及ぼす影響により計算の複雑さが減ります。
入力画像のサイズがh*w
であるとします。あなたのCNNでは、画像は畳み込みとmax-プーリングのシリーズを通過し、その結果、右側の最初の完全に接続された層の前に、あなたは、サイズの特徴マップm
がある
sz=m*(h/k)*(w/d)
で終わります特徴平面の数であり、k
およびd
は、層の数、各畳み込みおよび最大プールモジュールのパラメータ(、例えば畳み込みカーネルのサイズなど)に依存する。通常はd==k
になります。これを完全に接続されたレイヤーに供給して、q
パラメーターのベクトルを生成するとします。何この層は行うことはbasicaly A
サイズq*sz
の行列であり、x
はベクトルとして書かれただけで、あなたの特徴マップである行列の乗算
A*x
です。
ここで、サイズ(h/t)*(w/t)
のパッチをネットワークに渡したとします。あなたはそれらのデータセット内の画像の大きさを考えるとサイズ
sz/(t^2)
の特徴マップで終わる、これはパラメータの数の大幅な減少です。また、小さなパッチはより大きなバッチを意味し、それもトレーニングを加速する(より良い勾配近似)。
こちらがお役に立てば幸いです。
@ wlnirvanaのコメントに続く編集:はい、パッチサイズはハイパーパラメータです。私が与えた例では、t
を選択して設定されています。データセット内の画像のサイズを考えると、t>=6
のようなものが現実的であると言えます。 「...計算時間を短縮するためにと癌転移が含まれている可能性が最も高いのスライドの領域上に我々の分析を集中する」
これは、バックグラウンドでない領域の周辺でのみパッチを選択することを意味します。完全に白いパッチをネットワークに渡すのは時間の無駄です(図1では、バックグラウンドを削除せずに無作為に選択すると、白/灰色/無用パッチがたくさんあります)。私は自分の論文でどのようにパッチの選択が行われたかについては何の説明もしていませんでしたが、背景以外の領域にあるピクセル数p_1,...,p_n
を選択し、(h/t)*(w/t)
センス。
これらの論文のいくつかへのリンクをいくつか教えてください。また、CNNのアプリケーション(私が知っているものではありませんが、多数ありません)は、画像全体が重要です。 – Ash
@Ash手元に追加しました。私は後でもっと見つけようとします。 – wlnirvana