最近、Deeplearning for Java(DL4J)をダウンロードして、畳み込みネットで少し実験しています。私はホームページやインターネット上でいくつかの作業サンプルを見つけました。例えば画像をどのように分類するか、つまり顔を認識する方法です。私はおおまかに訓練データがどのように読み取られ、画像がネットが認識すべき正しいラベル( "Barack Obama - Picture 1")でラベル付けされているかを理解しています。しかし、ここから私はちょっと立ち往生しています。私は出力を理解できません。 http://deeplearning4j.org/image-data-pipelineに記載されているように、ImageRecordReaderを使用してイメージを読み込んで、そこからトレーニングデータを作成します。しかし、そのプログラムは、例えば、「バラクオバマ - サンプル画像1」ではなく、「バラクオバマ」として1つの画像を分類することをどのようにして知っていますか?それともネットがそうしていますか?私はそうは思わない。 私の次の問題は、オブジェクトを認識するだけでなく、画像として表現されるボードの位置を評価するAlphaGoのような画像をエバクトするようにアプリケーションを変更することです。どのようにデータを入力すればよいですか?私は、例えばトレーニングボードの状態にスコアを付けてラベルを付けることができます...しかし、それが良いかどうかはわかりません。 これはわかりやすく助けられ、最小限のサンプルが大歓迎されたと思います!DL4Jを使用してAlphaGoのような画像を評価する
おかげで、良い一日持って オリバー