pca

    0

    1答えて

    現在私が直面している問題は次のとおりです。 96個の観測(行)と16個の変数(列)のデータフレーム(Aと呼ぶ)があります。 私は16要素(Aの16個の変数のそれぞれの係数)の(Principal Components Analysisからの)9個の列ベクトルのローテーションも持っています。 PCA回転が等の保存されます。今 ph=prcomp(home[ ,3:17], scale. = TRUE

    0

    1答えて

    PCAの読み込みとスコアをプロットする独自のスクリプトを用意したいと思います。 主な問題は、読み込みとスコアが(私のデータで)同じ単位の測定値ではないということです。私は、私のコードで何とかローディングをスケールする必要があると仮定します。 ここで私は、虹彩データにPCAのバイプロットの例を持ってしようとしましたが、このコードはエラーを与える: Error: Don't know how to a

    0

    2答えて

    データの縮小版を入手するには、MatlabでSVDを使用する必要があります。 私は、関数svds(X,k)がSVDを実行し、最初のk個の固有値と固有ベクトルを返すことを読んだ。ドキュメントには、データを正規化する必要があるかどうかは記載されていません。 正規化とは、平均値の減算と標準偏差による除算の両方を意味します。 私がPCAを実装したとき、私はこのようにして正規化していました。しかし、matl

    0

    1答えて

    こんにちは、私は次のように私のコードが見え、その後、サポートベクトルマシンを使用するために私の列車のマトリックスの寸法を小さくしたいと思います: from sklearn.decomposition import PCA まず私は、PCAをperformin試してみました:その後 pca = PCA(n_components=100) #pca.fit(train_matrix) trai

    0

    1答えて

    私は現在、Principal Component Analysis(PCA)を使用するプロジェクトに取り組んでいます。幸運なことに、Pythonにはscikitlearn.decompositionの非常に便利なモジュールがあります。これはほとんどの作業を行うようです。私が本当にそれを使用し始める前に、私はそれが何をしているのかを正確に把握しようとしています。 私はこのようなルックスでテストされて

    0

    1答えて

    def doPCA(data, dimensions=2): from sklearn.decomposition import PCA model = PCA(n_components=dimensions, svd_solver='randomized', random_state=7) model.fit(data) return model File "/home/dogus/

    1

    1答えて

    屋外のカメラから大量の画像をアーカイブしています。各20000アイテム、1280x960カラーピクセルに近い。私はこのデータのためにSVD(固有画像)を構築し、データのベクトルを小さくすることでこのデータベースのインデックスを作成したいと思います(すべての画像に対して100次元のベクトル)。 すべてのデータを一度にRAMにロードするには、約200GBのRAMが必要です。 まず、RAMがあまりありま

    2

    1答えて

    実験的(白血病)およびコントロール(健康ドナー)のグループを視覚化するためにedgeRにMDSプロットを作成するのに問題があります。 私はedgeRの入力としてhtseqファイルを使用しました。各ファイルは、gene_IDとread countの2つのカラムで構成されています。 「A」は白血病患者を表し、「H」は健康なドナーを表す。 samples <- matrix(c("A18.txt","e

    -1

    1答えて

    私はscikit-learnでPCAをやっているうちに、svdを使ってeigenvalueとeigenvectorを得た後、svd_flipを使って実際の固有ベクトルを取得しました。 eigenvalueとeigenvectorを取得するコードは次のとおりです。 pca = PCA(data.shape[1]) newData = pca.fit_transform(data) eigenva