0
forループでテンソルを反復するにはどうすればよいですか?..forループでテンソルを反復するか?
私のinput_tensorの各行に畳み込みを行いたいのですが、テンソルで反復できないようです。
は現在、このようにそれをしよう:
def row_convolution(input):
filter_size = 8
print input.dtype
print input.get_shape()
for units in xrange(splits):
extract = input[units:units+filter_size,:,:]
for row_of_extract in extract:
for unit in row_of_extract:
temp_list.append((Conv1D(filters = 1, kernel_size = 1, activation='relu' , name = 'conv')(unit)))
print len(temp_list)
sum_temp_list.append(sum(temp_list))
sum_sum_temp_list.append(sum(sum_temp_list))
conv_feature_map.append(sum_sum_temp_list)
return np.array(conv_feature_map)
ですケラスはテンソルフローの上にあります。私はlamdbaレイヤーを使ってkerasのレイヤーを定義し、これらの操作を行います。私が使用している機能は何か..私がやっていることがkerasやtensorflowフレームワークでも合法であるかどうかはわかりません...ケラスに適用されます..私はテンソルフローラベルを追加することに間違いを犯したと思います。 –
私はそれを訓練したくありません。私はConv1dでフォーマットされて出力されるようにデータを渡したいだけです。 –
同じ原則が適用され、グラフを定義してから 'sess.run(...)'を使う必要があります。あなたが推論をしているだけなら、最適化OPをリクエストするのではなく、興味のある結果を生成するOPをリクエストします.Tensorflowは、リクエストしていない場合、バックプロップと最適化を気にしません戻り値すでにモデルを訓練している場合は、チェックポイントをロードするので、モデルコンポーネントを定義し、チェックポイントをロードしてから触れないで、モデルに 'sess.run'を送ります –