0
例のseq2seq_model.pyコードのアテンションマスクを計算するために使用されるattention()メソッドのようです。シーケンスからシーケンスへのコードのTensorFlowコードは呼び出されませんデコードする。デコード時にTensorFlowのseq2seqサンプルコードで注意行列を抽出する
誰でもこれを解決する方法を知っていますか?同様の質問がここで提起されました:Visualizing attention activation in Tensorflow、しかし、それは私にどのようにデコード中に行列を取得するか分かりません。
ありがとうございます!