mpi

    0

    3答えて

    Pi近似のためのこのC MPIアプリケーションは、ランダムに生成されたドットの数である問題サイズごとに常に同じ結果を出力します(npts)。 #include <stdio.h> #include <stdlib.h> #include <math.h> #include "mpi.h" int main(int argc, char *argv[]) { int myid,

    0

    1答えて

    私はMPIで新しく、私は2つの配列AとBが15個の要素を持ち、16個のプロセスを持ち、各プロセスが配列の要素を表している問題を作りたいと思っています(プロセスゼロ)。配列Aは、入力データの位置8〜15を格納しています。この位置はツリーの葉を表現しています。最初のステップでは、葉が親に数値を送り、親がすべてを受け取る配列で圧縮します息子と番号を追加し、父親に送信します。そして、配列Aは配列1のすべて

    0

    1答えて

    MPIを使用してHPCクラスタでRを並列実行したいとします。私はパッケージスノウからのmakeCluster関数がノードの数を指定するために使用できることを理解しています。たとえば、makeCluster(2,type="MPI")は2ノードを意味します。タイプを「MPI」に指定しないと、makeCluster(2)は1つのノード上に2つのコアを意味します。 ノードとコアの数を指定する方法はありま

    0

    1答えて

    私が64ビットインターフェイスを使用したい場合は、012ort67のために-i8コンパイラのフラグを指定するか、gfortranのために-fdefault-integer-8を指定することができます。 MPIで しかしMPI_INTEGERが固定された32ビット整数として定義されています MPI_Bcast(buffer, count, MPI_DATATYPE, root, MPI_COMM_W

    -4

    1答えて

    再帰を含むシーケンシャルコードを、openmp、CUDAまたはMPIで書かれた同等のパラレルコードに変換することは非常に困難です。 なぜそうですか?

    2

    1答えて

    私は粒子間の相互作用を計算するこの関数を並列化しようと苦労しています。元のバッファを他のすべてのプロセスに配布するAllgathervを使う考えがありました。次に、 "ランク"を使用して、各プロセスがその部分を計算するループを作ります。このプログラムでは、MPIを上書きして、mpi-> functionと呼んでいる理由を示す統計を表示します。残念ながら、私はそれを実行すると、私は次のエラーが表示さ

    0

    1答えて

    私はMPI初心者です。私のプログラムは1から100までの合計を計算しますが、エラーを返すため、なぜ私は理解できません。 MPI_ReduceとMPI_Bcastを学習していますので、できる限り使用してみてください。 これは私のプログラムです。 // include something int main (int argc, char * argv[]) { int rank, s

    1

    2答えて

    私はラップトップ(i5 - 4260Uと4 GBのRAM)でWindows上でMPIを使用してMPIを学び、低速のパフォーマンスに走ろうとしています。 CygwinとMPI用の適切なライブラリをインストールしました。私もCLionを使い、this guideを使ってMPIを設定しています。 私はCLion上でコードを構築し、MPICC上でコンパイルすることに成功しました。しかし、MPI Runを使