2016-08-06 5 views
0

Imは私のコードは、サンプルサイズをとるとき、ブートストラップ法比較ランダムサンプルが

を用いてランダムサンプルを比較するためのより高速な方法を探している(最小サンプルサイズを決定するために)、次いで、100種類のランダムサンプルを取ります。それぞれの平均を記録します。次に、少し大きめのサンプルサイズをとり、同じことを行います。等々。

これの目的は正確に私の人口現時点で

私のコードを表現するのに必要な最小サンプルサイズを見つけることです

set.seed(124) 
mydata <- rnorm(10000, 1, 100) 
Summary_Table <- data.frame(0:0) 

#generate list of sample sizes 
Sample.sizes <- seq(1, length(mydata), by = 100) 

#take 100 random samples of each size and record summary stats 
for(i in 1:100) { 
for(j in 1:length(Sample.sizes)) { 
    Random.Sample <- mydata[sample(1:length(mydata), Sample.sizes[j], replace=FALSE)] 
    Summary_Table[j,i] <- mean(Random.Sample) # - median(Random.Sample))/sd(Random.Sample) 
} 
} 

トラブルでこのデータセットを使用して実行するには15分を取るI私が行方不明になっているより速い方法がありますか?

答えて

0

これを並列化することを検討してください。例えば。

getSumStat <- function(size) { 
    mean(mydata[sample(1:length(mydata), size, replace=FALSE)]) 
} 

library(parallel) 
cl <- makeCluster(getOption("cl.cores", 3)) 
clusterExport(cl, varlist=c("getSumStat", "mydata")) 
out <- parSapply(cl, Sample.sizes, function(j) replicate(100, getSumStat(j))) 
stopCluster(cl)