neural-network

    1

    1答えて

    私は現在、6つのパラメータに基づいて住宅の価格を予測するために、次のコードを実行しています: import pandas as pd import tensorflow as tf import numpy as np housing = pd.read_csv('cal_housing_clean.csv') X = housing.iloc[:,0:6] y = housing.

    2

    1答えて

    私は自分の回帰コードの最後のブロックに次のコードを実行しています: steps = 50000 with tf.Session() as sess: sess.run(init) for i in range(steps): sess.run(train, feed_dict={X_data:X_train,y_target:y_train})

    0

    1答えて

    現在のバッチに依存するケラス損失関数に追加情報を組み込む必要があります。 Kerasの損失は2つの引数しか取らないので、私はこの情報を、ジェネレータオブジェクトのnext()関数を呼び出すことによって追加することを検討しました。しかし、ジェネレータは一度だけ呼び出されます(おそらく、model.compile()内のloss関数を追加するとき)。ここ はサンプルコードです: ​​ は新しいmeta

    0

    1答えて

    入力時にラベルとラベルの数が変化するニューラルネットワークを構築しようとしています。たとえば、クラスのロジットを表す10単位の最終層を持つことができますが、クロスエントロピーを計算するためにユニット[1,3,4]しか必要でない場合があります。[3,4,5、 7]など map_fn、gather、py_fn、while_loopのさまざまな組み合わせを試しましたが、私の場合は誰も見かけません。もう1

    0

    1答えて

    私はいくつかのバックプロパゲーション/データ解析を行うためにニューラルネットワークを構築しています。 私は訓練のために入力データを正規化しています。 私のデータセットにはタイプ識別子が含まれていますが、現在は8種類あります(これはいつでも変更できます)。 TypeId = 1の場合、実際には00000001を返すことを条件としたいと思います.TypeId = 2の場合、00000011を返して繰り

    0

    1答えて

    私はTensorFlowとPythonの新機能です。私はデータセットを持っています。これはMNISTデータセット(28 * 28イメージ)と非常によく似ています。私はtensorflowとの基本的なニューラルネットワークを実装する方法でオンラインチュートリアルの多くを、以下、それらのほとんどは、単に使用していることが判明している: from tensorflow.examples.tutorial

    1

    1答えて

    手書きの数字(MNISTデータセットから)を認識するために畳み込みニューラルネットワークを作成しようとしていますが、回転した数字の良い構造が何であろうと思っています。より多くのレイヤを追加する回転したMNIST数字を認識するためにCNNを構築する方法に関するアイデアはありますか?テンソルフローで作業しています。ありがとうございました。

    0

    1答えて

    私はMachine Learningについてはかなり新しく、Machine Learning an algorithmic perspectiveで始まりました。私は本のウェブサイトで与えられたコードを微調整することによって、悪意のあるプログラムを悪意のあるプログラムから識別するロジスティック分類器を作ろうとしています。しかし、隠れ層および出力層に関連する重みは、100000エポック後も変化しない

    1

    1答えて

    コールバックResetStatesCallback怒鳴るを使用してRNNモデルを訓練するとき、私は次の警告メッセージを取得on_batch_begin警告: /var/venv/DSTL/lib/python3.4/site-packages/keras/callbacksを.py:97: UserWarning:メソッドon_batch_begin()がバッチ 更新(0.791834)と比較して

    1

    1答えて

    relu activation関数に派生関数が含まれていないということはどのような影響を与えますか? How to implement the ReLU function in Numpyは、最大(0、行列ベクトル要素)としてreluを実装します。 勾配降下では、relu関数の派生を取っていませんか? 更新:Neural network backpropagation with RELU から こ