テンソルフローエンコーダーが行っている/戻っていることを誰かに説明することができますか?私は文書ごとに単語数のベクトルを得ることを期待しています(sklearnのように)、しかし、明らかに何かもっと奇妙なことをしています。この例ではテンソルフローエンコーダーの説明
:
features = encoders.bow_encoder(
features, vocab_size=n_words, embed_dim=EMBEDDING_SIZE)
A「embed_dim」を渡され、私はまた、これは弓のエンコーディングのコンテキストでやっていることを理解していません。ドキュメントは悲しいかなら非常に有用ではありません。私はTensorflowのコードを使って作業を試みることができますが、私は高いレベルの説明に感謝します。