word-embedding

    0

    1答えて

    私はword2vecモデルを持っていて、すべての単語を列車とテストセットに埋め込むために使用します。しかし、適切な言葉では、word2vecモデルには含まれていません。そして、すべての適切な単語の埋め込みとしてベクトルをランダム化できますか? できる場合は、私にいくつかのヒントといくつかの論文を参考にしてください。 ありがとうございます

    0

    1答えて

    this TensorFlow exampleスキップグラムWord2Vecモデルのトレーニングが記載されています。 batch_size = 128 embedding_size = 128 # Dimension of the embedding vector. skip_window = 1 # How many words to consider left and right. nu

    0

    4答えて

    を使用している間、私は、リスト内の文字列の数が多い:リストの内容の 小さな例は次のとおりです。 [「機械学習」、「アップル」、「金融」、 "AI"、 "Funding"] 私はこれをベクトルに変換し、クラスタリング目的で使用したいと考えています。 それぞれのベクトルを見つけている間に、文中のこれらの文字列のコンテキストが考慮されていますか?私は文字列を含むだけでこのリストを持っている場合 は、どの

    4

    1答えて

    Kerasの埋め込みレイヤーがわかりません。それを説明する記事がたくさんありますが、私はまだ混乱しています。誰かがいくつかの例でそれを説明できる場合たとえば、このコードでIMDB評判分析 top_words = 5000 max_review_length = 500 embedding_vecor_length = 32 model = Sequential() model.add(

    1

    1答えて

    私は、この実装の後にCアプリケーションを使用してテキストコーパスにグローブモデルを構築しましたhttps://github.com/stanfordnlp/GloVe/tree/master/src。 Iは、AがBに関連し、CがDに関連している場合 は、その後-C + Bがベクトル埋め込み、例えばD.に 等しくなければならないような方法で単語埋め込みを検索します の算術 "オーストラリア" - "

    1

    1答えて

    ワード埋め込み用のコーパスが1つあります。このコーパスを使用して、単語の埋め込みを練習しました。しかし、単語の埋め込みを訓練するときは、結果は全く異なります(この結果は、K-Nearest Neighbor(KNN)に基づいています)。例えば、最初のトレーニングでは、「コンピュータ」最近傍の言葉は「ラップトップ」、「のコンピュータ」、「ハードウェア」です。しかし、2回目の練習では、この言葉は「ソフ

    0

    1答えて

    私は分散型word2vecアルゴリズムを使って単語ベクトルを作成しました。今私は言葉とそれに対応するベクトルを持っています。どのようにこれらの単語とベクトルを使ってgensim word2vecモデルを構築するのですか?

    0

    1答えて

    私はコーパスがあり、文字から始まる単語の埋め込みを見つけたいと思います。ですから、私は一連の文字を入力として持っていて、多次元空間に投影したいのです。 初期設定として、すでに学習した単語の埋め込み(たとえば、Googleの埋め込み)に合わせたいと思います。 私はいくつかの疑問があります。 を私は入力シーケンスの各入力 文字のベクトルを埋め込む文字を使用する必要がありますか? を単純にasciiまた

    0

    1答えて

    GloVeを使用してドキュメントのワード埋め込みを構築したいと考えています。私は、以下のように単一単語(ユニグラム)のベクトル埋め込みを取得する方法を知っています(サンプルテキストドキュメントの場合)。 $ git clone http://github.com/stanfordnlp/glove $ cd glove && make $ ./demo.sh ここで、私はバイグラムのベクト