機械学習とスタックオーバーフローの新人。画像からの照明方向推定の機械学習?
最近、オブジェクトの反射に基づいて光源の方向を推定する機械学習アルゴリズムを作成しようとしています。 これは複雑な問題かもしれないことは知っています。そのため、最初のステップとして、私は可能な限り単純化しようとしました。
私はまず、問題を回帰問題から分類問題に変更しました。光源はオブジェクトの左側にあります。光源はオブジェクトの右側にあります。 私はまた、私のデータセットに対して1つの角度だけを変えています。私の質問の
ショートバージョン:
- が、機械学習で、このようなことを行うことが可能であることを、あなたと思いますか? (私の経験は実際にはあまりにも限定されています)
- もしそうなら、あなたにとってより適したニューラルネットワークは何でしょうか? CNN? R-CNN? LSTM? SVM?
- このタスクを完了するためのパイプラインは何ですか?
私は現在、[10,60]/[120,170]と金属反射のある球との間のランダムなXの角度を取る指向性ライトを使用してデータセットを作成し、ラベル付けしています。ここでの例である:
https://imgur.com/a/FxNewレーベル:0(左側)
https://imgur.com/a/9KFhiレーベル:
- 画像:前処理1(右側)
は64x64画像にリサイズされます
、私は現在でtensorflow畳み込みニューラルネットワークを使用しています:ラベル
として入力および0/1として64×64のグレースケール画像のデータをラベル、 バランス10000サイズのフィルタを用いて
3畳み込み層[16,32,64] [5,5] RELU
- 3プールサイズを有する層[2,2]とストライド[2,2] マイネットワークは単純に学習されていない:1024個の隠しニューロンとドロップアウト(レート= 0.4)2個の出力ニューロンの問題については(各クラスの1)ソフトマックス
とRELU
私の推測では、問題は私の予想よりも複雑で、私の予測は私の予測であるべきことのヒントではなく、オブジェクト上の反射ドットを検出するネットワークを訓練すべきですオブジェクトの中心とドットの間の向きを使用します。私は正しい?
畳み込みレイヤーは位置を考慮していないため、畳み込み部分では、球体が常に同じであるため、すべての画像が同じパターンになります。常に同じことが検出され、明るい領域が移動したことは考慮されません。あなたはこの問題を解決するためにどのネットワークを使用することができるのかアドバイスしていますか?
私は本当にこの種の仕事にどのように取り組むべきかに関する警告をしています。 私はまだ機械学習にはまだまだ慣れていて、私のマシンよりも多くのことを学んでいることを覚えておいてください。
ありがとう。
大変ありがとうございました。あなたの助けを大変ありがとうございました。私の答えを見て、データが誤っているのは問題でした。私はそれについて非常に気が気ですが、hehe that hes how hehe。また、あなたのヒントをありがとう、それは私のネットワークを洗練させるのに役立ちました。幸運とあなたを参照してください –
@MarcRavaine素晴らしい!このバグについては気にしないでください。すべてのエンジニアが、特にAPIが新しくよく知られていないときに起こります。 – Maxim