私は自分のデータにFCN32セマンティックセグメンテーションを行っています。アルゴリズムを実行して、80,000回の繰り返しまで自分のデータ(1つのチャンネルだけのグレースケール画像)を微調整しました。しかし、損失と精度が変動し、出力画像が完全に黒くなります。さらに、80,000回反復した後の損失は非常に高いです。私は分類器が私のデータでうまくトレーニングできないと思った。だから、私は最初から訓練するつもりです。 一方、私のデータは、クラスメンバーの不均衡を招いています。背景ピクセルは他の4つのクラスよりも多い。一部の研究者は、重み付けされた損失を使用することを提案している。誰にも分かりますか?私は正しい方法でやっていますか?この加重損失をtrain_val.prototxtに追加するにはどうすればよいですか?ピクセル単位のセグメンテーション/分類タスクに重み付き損失を使用する例はありますか?
重み付けされた喪失のトレーニングに関するリソースや例が分かっていれば、感謝します。私とここで共有してください。
おかげで再び