私は自分のカスタムクラスで動作するようにオブジェクト検出モデルを再学習することができました。しかし、今私がしたいのは、推論中の入力を別の色空間(好ましくはYUV)に変更することです。Tensorflowオブジェクト検出API - 異なる色空間の画像を使用するよう再試行しますか?
ネットワークを変更する必要がありますか?それは同じAPIを使用して行うことができますか?私は引き続きTransfer Learningを使用することができますか、またはゼロから訓練しなければなりませんか?
私は自分のカスタムクラスで動作するようにオブジェクト検出モデルを再学習することができました。しかし、今私がしたいのは、推論中の入力を別の色空間(好ましくはYUV)に変更することです。Tensorflowオブジェクト検出API - 異なる色空間の画像を使用するよう再試行しますか?
ネットワークを変更する必要がありますか?それは同じAPIを使用して行うことができますか?私は引き続きTransfer Learningを使用することができますか、またはゼロから訓練しなければなりませんか?
おそらくRGBに変換するのが最も簡単ですが、転送学習を使用して訓練することは間違いありません。 YUV値をJPEGのRGBチャンネルとして保存する必要があります。単純にRGBに変換するのではなく、これを行うことに大きな利点があるかどうかは不明です。
クロマ(U、V)チャンネルを(一般的に行われているように)狭い空間解像度で表現したい場合は、可能な小さなスピードの利点がありますが、これはおそらく、この。
ネットワークアーキテクチャを変更する必要はありません。
同じAPIを使用してトレーニングすることができます。
しかし、あなたは転送学習に問題があると思います。
転送学習に使用している訓練を受けたネットワークは、RGBチャネルで訓練されています。つまり、おそらく最初のレイヤーには、RGB値間の特定の差異を探すフィルタがあります。たとえば、BチャンネルとRチャンネルの間にある程度の差があるときにエッジを見つけることができます。このフィルターは、VチャンネルとYチャンネルの違いについて同じものを見つけることはありません。
最初のレイヤーからは異なる結果が得られるので、これはすべてのネットワークに徹底的に伝播します。
原則として、異なるデータを期待どおりにネットワークに挿入しない場合は、同じ結果が得られないことになります。
これは不可能だと感じているのですか、実験的なので結果を予測できませんか? –
私はあなたが期待した結果を得られないと思います。しかし、私はあなたがとにかく試すことができると思います。 –
私は、取得した画像のデフォルトの色空間がYUVであるAndroid環境でこのモデルを使用しようとしています。時間とパフォーマンスを考慮して前処理ステップを省きたい。 –