0
共有層はCNTKで効率的に処理されますか? dual_model
を評価する際共有レイヤは効率的に処理されますか?
def create_func(shared_layers, out1_layers, out2_layers):
# ... there would be a with block specifying activations...omitted for brevity
shared_hl_func = For(shared_layers, lambda n: Dense(n), name="Shared Hidden Layers")
out1_hl_func = For(out1_layers, lambda n: Dense(n), name="Out1 Only Hidden Layers")
out2_hl_func = For(out2_layers, lambda n: Dense(n), name="Sigma Only Hidden Layers")
output1_func = Sequential([shared_hl_func, out1_hl_func,
Dense(1, activation=None, init=init, name="Out1_Regression_Layer")], name="Out1")
output2_func = Sequential([shared_hl_func, out2_hl_func,
Dense(1, activation=None, init=init, name="Out2_Regression_Layer")], name="Out2")
return output1_func, output2_func
output1, output2 = create_func([50,25], [25, 10], [25, 10])
my_input = cntk.input_variable((70,))
dual_model = cntk.combine(output1(my_input), output2(my_input))
計算を効率的に行われる。
あちこち例では、私は、次の式があると(即ち、活性化計算は重複しませんか)? (すなわち、最初の2つのより広い稠密なレイヤーは一度だけ計算され、共有されるでしょうか?そうでない場合は、明示的な関数構成の効率化によって効率を向上させるでしょうか?
ありがとう、私はこれは私のcomp私がより多くの層を共有したとしても、推論の間にutation時間は減少しませんでした。私は自分のシステムでGraphVizを利用できません。この目的のためにTensorBoardProgressWriterによって作成されたビジュアライゼーションも正確ですか? – tarlinian
はい、モデルをテンソルボードでも視覚化できます。 – KeD