が何であるかを私は現在、深い学習においてアマチュアとCBOWまたはskipgramモデルのいずれかの場合、このサイト https://www.kaggle.com/c/word2vec-nlp-tutorial/details/part-3-more-fun-with-word-vectors単語ベクトルの次元
にword2vectorについて読んでいたよ、私は単語ベクトルの寸法は300とであることがわかります語彙のサイズは15000です。私が以前の記事で読んだことは、単語内で単語をハードにエンコードできることです。だから私は、単語のベクトル次元は、語彙のサイズと等しいか、別の方法で質問を置く、この単語の次元とはどのように視覚化する必要がありますね。どのようにこの次元をとっていますか?
この文章を説明してください。 – sel
編集した質問 – Nipun