2017-08-26 5 views
0

tensorflow(python)を使用して、モデル内にさまざまな隠れ層を実装する方法があるのだろうかと思っていました。私は実装する必要があるレベルを正確に知らないので、ファイルや変数を読み込んでその情報を取得する必要があるため、これを求めています。
これは私がやって考えていたものです。Tensorflow:ニューラルネットモデルのレベルの可変数

w = tf.Variable(tf.random_normal([h, w])) 
self.__encoder[index] = tf.matmul(label, w) 

ので__encoderの各レベルは、隠れ層が含まれていますが、私はそれが動作するかどうかを知りませんが、どちらも訓練を実装する方法。

+0

完全な例をご提供ください。あなたの隠れた層の数が入力に依存しているということは、私には分かりません。 –

+0

変数からの隠れた層の数や入力からの数を読み込むだけで、シンプルなニューロンを実行する数の隠れた層を作成する必要があります。 – Yes92

答えて

0

私はあなたに理由を与える前に、静的計算グラフのためにテンソルが作られていると言いたいと思います。だから、この答えは、これを行うためのものです:

  1. ファイルから特定の番号を読み込み、このモデルを使用して、いくつかの他の出力
を養う隠れ層の数
  • でモデルを構築します

    隠された層の数をどこの場所で読んでいるのかはまだ分かりません。隠された(または潜在する)とは、データに依存しないハイパーパラメータです。変数に応じて層の異なる数を構築するとにかく

    は、単にある:ループ後

    def layer(x, input_size, output_size): 
        w = tf.Variable(tf.truncated_normal(shape=[input_size, output_size])) 
        b = tf.Variable(tf.zeros([output_size])) 
        return tf.sigmoid(tf.matmul(x,w) + b) 
    
    num_layers = ... #read somewhere 
    size_layers = ... #output_dimesion for each layer 
    h = x 
    for i in range(num_layers): 
        h = layer(h, input_size, size_layers[i]) 
        input_size = size_layer[i] 
    

    、hは最後の層の出力を有します。

  • 関連する問題