私はImagenetモデルと同様に、自分のネットワークをCaffeでトレーニングしようとしています。しかし、私は作物層と混同しています。私がImagenetモデルの作物層について理解するまで、訓練中にランダムな227x227画像作物を取り、ネットワークを訓練します。しかし、テスト中は、中央の227x227画像の切り抜きを取りますが、256x256の画像から中央の227x27画像を切り抜きながら、画像から情報を取り除いていませんか?もう一つの質問は、訓練中に取るべき作物の数をどのように定義するのでしょうか?Caffe |無作為切り取りによるデータ拡大
また、256x256イメージから227x227作図を最初に取り、256x256イメージから255x255作図を2回目とする同じネットワーク(同じ数のレイヤー、同じコンボリューションサイズのFCニューロンが明らかに異なる)を訓練しました。私の直感によると、255x255作物のモデルは私に最高の結果をもたらすはずです。しかし、私は227x227の画像でより高い精度を得ています、誰でも私の背後にある直感を説明することができますか、何か間違っていますか?
私は、この質問が、正確にカフェが「オンザフライ」データ増強をどのように処理するのかを説明する幅広い答えを得なければならないと思います。それに対する答えを見たいと思うでしょうか。 – Shai
@ Shai Ya thats fine。 – Dharma