2017-12-25 24 views
-1

既存のTensorflowおよびKerasのCNNコードの例は、トレーニング画像に同じサイズを使用しています(299 * 299、244 * 256 * 256、さらに2つ。私は、これは部分的には訓練されたモデルとの互換性にも依存していると推測しています。事前学習モデル(Keras、Tensorflow)を使用したマスクR-CNN、高速R-CNNの最適な画像サイズ

私はまだアーキテクチャを評価していますが、Resnet、InceptionまたはXception、TensorflowまたはKerasを使用して、おそらくMask R-CNN(またはFaster R-CNN)になります。分析対象の画像は1024×1024の範囲にありますが、より小さなパーティションに分割することができます。

使用可能な事前トレーニングされたモデルがあれば、利点があるトレーニング画像のサイズはありますか?後でサイズを変更する必要がないようにしたいのですが、場合によっては画像の明瞭度が低下するためです。

+0

ドライブバイダウンワードで、理由は全くありません。まだクリスマスに。地球上で何が人に間違っているのですか? – StringTheory

答えて

0

OK、私はこれまで部分的な答えを見つけました:

Girshickの高速化R-CNNは明らかに彼らの短い寸法は600個のピクセルですが、大きなエッジが1000個のピクセルでクランプされるように、入力画像の内部スケーリングを行います。これは利用可能なGPUのメモリの制限に起因すると思われます。

画像のスケーリングがCPUヒットを引き起こし、エッジのエイリアシングを引き起こすとすれば、画像の前処理に利点があるようです。

Mask R-CNN'sに相当する情報はまだ見つかりませんでした。

関連する問題