2017-01-02 7 views
1

私は分散トレーニングを設定しようとしています。今私は1つのパラメータサーバと2つの作業者を持っています。別のパラメータサーバを追加すると、Tensorflowは2つのサーバ間でどのようにパラメータを分割しますか?ランダムに行われているのですか、手動で指定する必要がありますか?Tensorflowのデバイス配置のデフォルト戦略は何ですか?

答えて

1

利用可能なpsタスクについてラウンドロビンに配置されます。device_setter_test.py

関連する問題