textsum

    1

    1答えて

    私はTensorflow 0.9を使用しており、Textsumモデルでトレーニングしています。私は掻き集めて、およそ1週間彼らに対して訓練している約130万の記事を持っています。平均損失は約1.75-2.1であった。私は、私の平均失業率が私がトレーニングで得られるものに近いべきであるという私の理解であるので、evalを停止して実行することに決めました。私が評価を走らせたとき、私は2.6から2.9の

    1

    1答えて

    小さなテストセット(5つの例)でtextsumデコードを実行していますが、参照ファイルとデコードファイルの両方がすでに数千行あります。一見無限に実行される理由はありますか?同じサンプルセットを繰り返し処理していますか?後のアウトプットは以前のアウトプットより優れていると思われますか? これに関するいくつかの直感が大好きです。私は明確な説明を見つけることができませんでした。

    0

    1答えて

    ここで私がどこに失敗しているのか誰かが分かると思っていました。そこで私はbuzzfeedからいくつかのデータを削り取りましたが、今ではtext_to_dataフォーマッタにdata_convert_examplesに送ることができるテキストファイルをフォーマットしようとしています。 私は数回答えがあると思っていましたが、私はこれをバイナリとして処理してからデータを鍛えようとすると、まだレンガの壁に

    -1

    1答えて

    私は5日間、プロジェクトページで推奨されているパラメータでテキストの練習をしました。私は3百万以上の記事 - 要約のペアを持つトレーニングセットを使用します。 最初にrunning_average_lossが約9から約4にゆっくりと減少しますが、その後はrunning_average_lossの値が広範囲に変化しますが、5を超えることもありますが、訓練セットのいくつかの記事を含むモデルですが、出力

    0

    1答えて

    現在、テンソルフローを使用して、訓練された "textsum"モデルを提供しようとしています。私はTF 0.11を使用していますが、読んだ後、エクスポートされたファイルckptとckpt.metaファイルを自動的に作成するように見えます。 textsum/log_rootディレクトリの下に、複数のファイルがあります。一方はモデル.ckpt-230381であり、他方はモデル.ckpt-230381.

    1

    2答えて

    私はテンソルフローのテキスト(テキスト要約モデル)に取り組んでいます。 gitからクローンを作成している間にサンプルデータ、つまりモデルに付属のおもちゃデータセットを使ってモデルを訓練するために実行しました。私はモデルを訓練し、サンプルデータセットでデコードするのにどれくらいの時間がかかるかを知りたがっていましたか?すでに17時間以上掛かっており、まだ稼動しています。

    1

    2答えて

    TextSumモデル用に独自のトレーニングデータを作成しようとしています。私の理解として、私は自分の記事と抄録をバイナリファイル(TFRecords内)に入れる必要があります。しかし、生のテキストファイルから私自身の訓練データを作成することはできません。私は非常に明確にフォーマットを理解していないので、私は次のコードを使用して、非常に単純なバイナリファイルを作成しようとしています: files =

    7

    1答えて

    私はthisに続いてtextsumを使用しています。私は提供されたコマンドを使ってモデルを訓練しました。しかし、私は 'textsum/log_root /'ディレクトリに「列車」というフォルダは表示されません。トレーニングはサンプルファイルで行われるため、モデルはリアルタイムのテストデータで作業できるでしょうか?そうでない場合は、トレーニングデータを作成してモデルをトレーニングするにはどうすれば

    0

    1答えて

    私は600kの記事+要約の訓練コーパス上の抽象的な要約のための注意モデルでtextsum seq2seqを訓練しました。これはコンバージェンスと見なすことができますか?もしそうなら、5kステップ以下ということで収束したのは間違いないでしょうか?留意事項:私は4のバッチサイズで(約収束するまで)20万の 5Kステップの単語サイズに訓練してきた は最大で20Kの異なるサンプルが見られたことを意味します