pca

    0

    1答えて

    pcaRasters $call rasterPCA(img = predictors) $model Call: princomp(cor = spca, covmat = covMat[[1]]) Standard deviations: Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 Comp.7 Comp.8

    0

    1答えて

    私は、 'FactoMineR'パッケージの 'PCA'関数を使用して主成分スコアを取得しました。私はこのフォーラムでパッケージの詳細と同様の質問を読んでみましたが、変数ファクタマップに補助変数を表すために使用される矢印の線種を変更するコードを理解することはできません。デフォルトでは、これらは青であり、破線と私は必死にそれらが連続 私はggplotを管理しないようにする方法を見つけることができない

    2

    1答えて

    変数が50を超えるデータフレームdataがあり、caretパッケージを使用してRでPCAを実行しようとしています。 library(caret) library(e1071) trans <- preProcess(data,method=c("YeoJohnson", "center","scale", "pca")) 私が正しく、このコードを理解していれば(dataはそれにゼロを持って

    1

    1答えて

    私は最近データを分析しようとしていますが、グラフを少し上手くしたいのですが、私はこれで失敗します。 私は144サイトと5つの環境変数を持つデータセットを持っています。それは基本的に島周辺の基質組成と魚の豊富さに関するものです。この島では、南北の基質組成に違いがあると考えられています。今、私はpcaをやっていますが、biplot関数ではかなりうまく動作しますが、プロットを少し変更したいと思います。

    0

    1答えて

    私は、50K行と26のフィーチャのデータセットを持っています。私は、sklearnのStandardScaler(各カラムは平均0と標準偏差1)を使用してカラムを正規化し、フィーチャセットを元の分散の~90%に減らすためにPCAを実行します。私はsklearnのKMeansアルゴリズムを実行する前に、行を正規化しています。 PCAを実行した後に行を正規化してはならない理由はありますか?存在する場合

    1

    1答えて

    まず、「疎PCA」とは、L1ペナルティと疎なローディングを持つPCAを意味し、疎行列のPCAはそうではないことを明確にします。 私はZouとHastieの疎PCAに関する文書を読みました。私はsklearn.decomposition.SparsePCAのドキュメントを読んでいますが、PCAの使い方は分かっていますが、正しい結果を得られないようですSparsePCAから。 つまり、L1ペナルティが

    1

    1答えて

    線形回帰を適用する前に、主成分分析を使用してノイズを減らしたいと考えています。 私は私のモデルを訓練することができ、このデータでは1000のサンプルと200個の機能 import numpy as np from sklearn.linear_model import LinearRegression from sklearn.decomposition import PCA X = np

    0

    1答えて

    PCA経由でRankerを使用して属性を選択している場合、出力を得た後、どのように線形回帰を実行できますか?それは可能ですか?