2017-09-11 12 views
1

テンソルフローオブジェクト検出APIを使用すると、フィードされるイメージサイズをカスタマイズできることがわかりました。私の質問は、通常、224 * 224イメージ、時には300 * 300画像になります。イメージサイズテンソルフローオブジェクト事前検出モデルを使用して検出

私は、caffe rfcn、yolo、keras ssdなどの他のフレームワークでは、画像を事前に重み付けされた標準サイズに合わせて縮小します。

300 * 300入力サイズのtfで使用される事前計算された重みはありますか。もしそうなら、私たちはこれらの重みを使ってカスタマイズされた画像サイズをどのように分類できますか? tfはそれぞれの重みのサイズに縮小されますか?

答えて

0

入力サイズはネットワークの入力レイヤーにのみ影響します。しかし、それが間違っている場合は私を修正してください、私はまだ完全な深い学習のパラダイムに新しいです。

Tensorflowオブジェクト検出APIの3つのモデルを使用しました。より速いR-CNNおよびR-FCN(いずれもResnet101特徴抽出器および初期化V2を伴うSSDモデル)。 SSDモデルは、画像を固定サイズのM x Mに再構成します。このことはHuangらによる論文「最新の畳み込み物体検出器の速度/精度のトレードオフ」にも言及されているが、n高速のR-CNNおよびR-FCNモデルは、エッジ。このサイズ変更は、モデルの前処理段階にあります。

もう1つの方法は、縦横比を維持して画像上で固定サイズを切り抜くことです。次に、異なる位置(中央、左上、右上、右下、右下など)から切り抜くことができます。モデルを頑強にする。より洗練された方法としては、画像を複数のスケールにリサイズし、クロッピングを行い、SPPのような同じフィーチャディメンションを作成するために適応型プーリングサイズを持つ畳み込みレイヤーでさまざまなアスペクト比を使用する方法があります(詳細はHeその他のSpatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognitionを参照してください)。 configのプロトタイプのkeep_aspect_ratio_resizerによって行われることです。

これは、私の理解のためのアーキテクチャーがさまざまなイメージサイズに耐えられるようにします。隠れたレイヤーの内部の重みは、画像の入力サイズの影響を受けません。

関連する問題