naivebayes

    2

    2答えて

    私の割り当てのためには、以下を行う機械学習プログラムを作成する必要があります。 入力として、プロジェクトは主に橋と水路の建物計画(PDFテキスト)を取得します。機械学習プログラムは、そのPDF内のすべてのセンテンスをサンプル(そのセンテンス内の単語はフィーチャ)とみなし、ハードウェア関連およびソフトウェア関連のカテゴリのいずれかですべてのサンプル/センテンスを分類する必要があります。 (私はTF-

    0

    1答えて

    私はPythonにはかなり新しいです。 I今 import csv import nltk f = open('C:/Users/Documents/Data/exp.csv') csv_f = csv.reader(f) dataset = [] for row in csv_f: dataset.append(row) print (dataset) を使用し

    9

    1答えて

    私の意図は、そのクラスをBayes Classifier Algorithmに見つけることです。 と仮定、次トレーニングデータは、さまざまな男女の高さ、重さ、足、長さ SEX HEIGHT(feet) WEIGHT (lbs) FOOT-SIZE (inches) male 6 180 12 male 5.92 (5'11") 190 11 male 5.58 (

    1

    1答えて

    ドキュメントをクラスに分類するためのナイーブベイズ分類器を実装する必要があります。したがって、ラプラス平滑化と一緒に、クラスに属する用語の条件付確率を得るには、 prob(t | c)= Num(クラスcのドキュメント内のワード発生+ 1/Numクラスcの文書)+ | V | bernoulliモデルは、1または0のいずれかを持ち、ボキャブラリーはおそらく20000ワードなどのように大きくなります

    0

    1答えて

    klaRパッケージでNaive Bayesを実行しているときにこのエラーが発生しました。 レプリケートするためにデータを共有したいと思いますが、私はそれを行う際にいくつかの制約があり、何が起こっているのか分からないので自分自身を再作成するデータセットを作成できません。私はこれを読んでいる誰かがこのエラーに遭遇して克服したことを期待しています。ここで は誤りです: Error in if (any(

    -1

    1答えて

    9つの連続したデータ列と4つのカテゴリデータを持つデータセットがあるとします。 Matlabでは、列を2つのグループに分け、個別にトレーニング/テスト(ナイーブベイズ)を行い、連続する列のエラー率が0.45で、カテゴリの列のエラーが0.33であると判断します。私の質問は - 私はどのように組み合わせエラーを判断するのですか? EDIT - シンプルな擬似コードの概要が追加されました: for x

    -1

    1答えて

    私は質問したいと思います。音のパラメータを持つ10列と、2つの列の後に2つの楽器が記録されています。 私は10列のサウンドパラメータでデータを取得した後、どの単一の計測器が使用されたかを予測する必要があります。 私はデータ前処理などについて知っていますが、私が正しい分類を選択しているかどうかを再度確認したいと思います。私が提供した例では、Naive BayesやLinear Regressionや

    0

    2答えて

    テキストを分類するには、posとnegという大きな訓練セットがあります。 TextBlob(this tutorialによる)を使ってテキストを分類しました。それはかなりうまくいくが、大きなトレーニングセット(例えば8kワード)では非常に遅くなる可能性がある。 私はこれをscikit-learnでやってみたいと思いますが、どこから始めたらよいか分かりません。上のチュートリアルは、scikit-le

    0

    1答えて

    できるかどうか、そしてSGDを使用してMNBモデル​​をトレーニングすることが有効な方法であるかどうかを理解したいと思います。私のアプリケーションはテキスト分類です。 sklearn私は利用可能なMNBがないことを知りました。デフォルトではSVMですが、NBは線形モデルですね。だから、(ラプラススムージングと)私の尤度パラメータは のように推定することができる場合 私はSGDと私のパラメータを更新

    0

    2答えて

    まずは、私はPythonとnlp/machine learningの初心者です。今、これは実際にはかなりうまく動作 vectorizer = CountVectorizer( input="content", decode_error="ignore", strip_accents=None, stop_words = stopwords.words('eng