tensorflow

    5

    1答えて

    TensorFlowの結果を確実にするには、 異なる実行を維持するにはどんな方法がありますか?私は多くの情報を見つけることができません。私の結果は毎回違う傾向があります。

    8

    1答えて

    私は既に訓練されたTensorFlowの基本的なLSTMと、ブラウザで実行できるjavascriptのバージョンとの間のインターフェイスを実装しようとしています。問題は、すべての文献で、LSTMが(接続、ノード、ゲートのみを使用して)ミニネットワークとしてモデル化されており、TensorFlowの方がはるかに進んでいるようです。 私がしているしている二つの質問: がTen​​sorFlowモデルを

    12

    2答えて

    TensorFlowは、データを格納するのに最適な方法です。これは、例えば、MNISTデータをこの例に格納するために使用される。 >>> mnist <tensorflow.examples.tutorials.mnist.input_data.read_data_sets.<locals>.DataSets object at 0x10f930630> 入力と出力のnumpy配列があるとし

    9

    3答えて

    テンソルがA, B and C、テンソルフローがA、Bの3つのテンソルがあり、両方とも形状が(m, n, r)、Cのテンソルが(m, n, 1)のバイナリテンソルです。 Cの値に基づいて、AまたはBのいずれかの要素を選択したいとします。明白なツールはtf.selectですが、ブロードキャストのセマンティクスはありませんので、最初にAとBと同じ形にCを明示的にブロードキャストする必要があります。 こ

    5

    3答えて

    に複製シャッフリング例えば入力パイプラインが与えられTensorflow reading data tutorialで。そのパイプラインでは、データはstring_input_producer内とshuffle batch generator内で2回シャッフルされます。コードは次のとおりです。 def input_pipeline(filenames, batch_size, num_epochs

    5

    1答えて

    を実行して、私は、私はConvolutional Neural Networksチュートリアルに従うことによってtenforflowを習得しようとしていますが、私はどのようにcifar10_input.pyロードデータcifar-10-batches-binからを把握しようとしていたとき、 Tensor.eval()が非常に長い時間実行されたり、結果なしで永久に実行されたりするという問題が発生しま

    10

    2答えて

    は私がそうzが"abc/z"命名されていることを with tf.name_scope("abc"): z = tf.add(x, y, name="z") を行うことができます知っている、テンソルです。 次のような場合には、直接名前を割り当てる機能fが存在する場合、私は疑問に思って:あなたは、「名前の変更」にしたい場合は with tf.name_scope("abc"):

    15

    1答えて

    テンソルフローで最小のおもちゃRNNの例を実装しようとしています。 目標は、入力データからターゲットデータへのマッピングを学習することです。これは、このすばらしい簡潔さと同じようにexample in theanetsです。 更新:私たちはそこに着いています。残っているのは、それを収束させる(そして畳み込みを少なくする)ことだけです。次のコードを実行コードに変換したり、簡単な例を提供するのに役立つ

    10

    1答えて

    最近、私はTensorFlowを使用していましたが、フレームワークで利用できるすべての計算リソースを使用できないと述べました。 Convolutional Neural Networksチュートリアルでは、彼らは は、単純にモデルパラメータの非同期更新を採用していることに言及個々のモデルのレプリカは、モデルパラメータの古いコピーに訓練される可能性があるため、次善のトレーニングのパフォーマンスにつな

    5

    2答えて

    tfセッションで使用するコアの数を制限しようとしていますが、動作していません。これは私がセッションを初期化しています方法です: sess = tf.Session(config=tf.ConfigProto(inter_op_parallelism_threads=1, intra_op_parallelism_threads=1, use_