1
私は分散トレーニングを設定しようとしています。今私は1つのパラメータサーバと2つの作業者を持っています。別のパラメータサーバを追加すると、Tensorflowは2つのサーバ間でどのようにパラメータを分割しますか?ランダムに行われているのですか、手動で指定する必要がありますか?Tensorflowのデバイス配置のデフォルト戦略は何ですか?
私は分散トレーニングを設定しようとしています。今私は1つのパラメータサーバと2つの作業者を持っています。別のパラメータサーバを追加すると、Tensorflowは2つのサーバ間でどのようにパラメータを分割しますか?ランダムに行われているのですか、手動で指定する必要がありますか?Tensorflowのデバイス配置のデフォルト戦略は何ですか?
利用可能なpsタスクについてラウンドロビンに配置されます。device_setter_test.py