2017-10-27 10 views
0

私はエミュレートされた鼻のゲーム(f1レーサー)をプレイして映像を使ってalexnetを訓練しています。cnn(alexnet)をトレーニングするためのトレーニングデータのピクチャを並べ替える

私はトレーニングデータをキャプチャしていますが、ゲームの背景は、グレーのピクセル値(同じ領域の淡黄色から黒色まで)になると大きく変化しています。関数(可能であれば、特定の地域)にピクセル値になると画像を比較させる関数(cv2おそらく?)またはアルゴリズムを教えてもらえますか?

多分私は完全に間違っていますし、それが実際の騒音であるかどうかもわからないと言われているように、あまりにも控えめなネットを助けてくれます。今のところ私はそれらを灰色に変換し、160 * 120にサイズ変更し、フレームの量を所望の出力とバランスを取る(主に進む)。

tfボードでは、220/1700のトレーニングステップの後、ネットの精度が低下し(〜75%)、損失が減少することがわかりました。

画像例:

#0

#1

答えて

0

私は次のようになりました画像を処理しています:

screen = grab_screen(region=(100, 100, 348, 324)) 
    processed_img = cv2.cvtColor(screen, cv2.COLOR_BGR2GRAY) 
    processed_img = cv2.Canny(processed_img, threshold1=200, threshold2=300) 

    kernel = np.ones((2, 2), np.uint8) 
    processed_img = cv2.dilate(processed_img, kernel,iterations = 1) 
    processed_img = processed_img[120:248, :] 
    processed_img = cv2.resize(processed_img, (160, 60)) 

これはすでに私にはかなり良い結果を与えます。

(ストリームから)原画:

original picture (from stream)

古い画像処理(のみrgb2gray):処理後

old image processing (only rgb2gray and resize)

新しいイメージ:

new picture after processing

トレーニング結果: オレンジ色の線...古いイメージでトレーニングネットはすでに私はほんの数を訓練し、過剰適合していることを認識して ブルーライン...新たに処理された画像とトレーニング

accuracy

+0

イムサンプル画像(1500)を使用して、モデルの実行方法を確認します。 –

関連する問題