mpi

    2

    1答えて

    ファイル内の特定の位置に書き込むデータがあります。それぞれの位置は配列で私に与えられます。現時点では、各変数を特定の位置にmpi_file_write_atで書き込むことで書きます。位置は連続的でも順序付けもされていないので、プログラムはファイル内を前後に移動します。 DO I=1,SIZE(VALUES) POS=ALL_POS(I) VAL=VALUES(I) C

    0

    1答えて

    MPI_Comm_sizeコマンドは、プロセッサ数が4の場合、常に単一プロセスを返します。仮想xUbuntu 16.04でMPI 3.2.1とCLionを使用しています。エミュレータ - VMWare vm設定のプロセッサ数は4に設定され、xUbuntuのnprocは「4」と表示されます。ここで はwhereis mpicc用の出力です:。 mpicc: /usr/local/bin/mpicc

    0

    1答えて

    ソケットを使用してCで書かれた簡単なクライアントサーバープログラムがあります。サーバーは、要求ごとに新しいpthreadを開きます。新しい開かれたスレッドごとに、私はCPU集約的なタスク(行列の乗算)を行います。 私は2つの物理コアと4つの論理プロセッサを持つCPUを持っています。 4つのクライアントを実行すると、サーバーは4つのスレッドを開き、各スレッドは論理プロセッサーに割り当てられ、CPUは

    0

    2答えて

    OpenMPで並列化されているソルバーと比較しようとしています。ソルバーはすべて、Fixed Form Fortran 77を使用してOpenMPIで並列実行されています。 mpif77では、オブジェクトファイルを-fopenmpスイッチとリンクさせることはできません。 Makeは実行可能ファイルを作成しません。私はOpenMPソースファイルをgfortranと別々にコンパイルしようとしてから、m

    0

    1答えて

    こんにちは皆、正方形のプリマフォーマットで3D配列を散布しようとしています。私はこの絵が私の意味を明確にすることを願っています。大きなキューブの だと思うが3D配列である(4x4x4寸法言うことができます)とP0..3はプロセッサです。 (P0は大きな配列の[0..1] [0..3]部分を取る)。私はこれを行うためにデータ型を使用しています。私は2つのデータ型を作成しました。 MPI_Dataty

    1

    1答えて

    私は大きな行列のドット積を決定するためにMPIを利用するプログラムを作成しています。 MPI_Send & MPI_Recvを使用してデータを送受信する方法を決定する際に問題があります。 私はマスター3つのスレーブからベクトルを受信して​​いる4 = NRCのテストを実行している MPI_Send(vector,nrc,MPI_INT,MASTER,123,MPI_COMM_WORLD); MP

    1

    1答えて

    複数のノードからCPUコアを利用して1つのRスクリプトを実行したいと考えています。各ノードは16のコアを含み、Slurmツールを介して私に割り当てられます。単一ノード上で正常に動作します mpirun -np 1 R --no-save <file_path_R_script.R> another_file_path.Rout : これまでのところ、私のコードは次のようになります。 ncore

    0

    1答えて

    MPIを使用して、すべてのプロセスでboradcastの最後にすべてのプロセスのバッファがあるように、すべてのプロセスによってブロードキャスト操作を行いたい同じデータを持っている。ここで は私が何をしたいのか描いたコードの断片である: //assume there are 10 processes MPI_Init(&argc, &argv); MPI_Comm_size(MPI_COMM_

    0

    1答えて

    私がやりたいことは、いくつかの文字列に対して基本的なMapReduce操作を実行することです。私がしたい: は、(同じように)プロセスで を私のすべてのプロセスに文字列のリストを配布:カスタムクラス(例えばWordWithFrequency)のオブジェクトに受け取った文字列の地図、 収集します追加の操作のためにそれらをプロセスに再び送ります。 これは簡単な作業であるはずですが、正しく実行する方法が