1
?私はそれを解決するためにサイズを変更したりScattervいずれかを使用して、まったく同じ問題とないでプロジェクトを持つ覚え
私は道を試してみましたがScattervでhere(あるいはhere)を説明し、それが働いた、けど。ここで散布グリッド
は、私が持っているものと最小のコードサンプルです:
#include <stdio.h>
#include <mpi.h>
#include <stdlib.h>
#include <assert.h>
#include <memory.h>
#include <unistd.h>
void print_array(int* arr, int width, int height)
{
int i;
for (i = 0; i< width * height;i++)
{
if((i != 0) && (i % width == 0))
printf("\n");
printf("%4d ", arr[i]);
}
putchar('\n');
}
int main() {
int board[100] = {
0,1,2,3,4, 5,6,7,8,9,
10,11,12,13,14, 15,16,17,18,19,
20,21,22,23,24, 25,26,27,28,29,
30,31,32,33,34, 35,36,37,38,39,
40,41,42,43,44, 45,46,47,48,49,
50,51,52,53,54, 55,56,57,58,59,
60,61,62,63,64, 65,66,67,68,69,
70,71,72,73,74, 75,76,77,78,79,
80,81,82,83,84, 85,86,87,88,89,
90,91,92,93,94, 95,96,97,98,99
};
int numprocs, rank;
MPI_Init(NULL, NULL);
MPI_Comm_size(MPI_COMM_WORLD, &numprocs);
MPI_Comm_rank(MPI_COMM_WORLD, &rank);
int* block = calloc(25, sizeof(int));
assert(block != NULL);
MPI_Datatype sent_block_t, resized_sent_block_t;
MPI_Type_vector(5, 5, 10, MPI_INT, &sent_block_t);
MPI_Type_create_resized(sent_block_t, 0, 5*sizeof(int), &resized_sent_block_t);
MPI_Type_commit(&sent_block_t);
MPI_Type_commit(&resized_sent_block_t);
if (rank == 0) {
print_array(board, 10, 10);
MPI_Scatter(&(board[0]), 1, resized_sent_block_t,
&(block[0]), 25, MPI_INT,
0, MPI_COMM_WORLD);
}
else {
MPI_Scatter(NULL, 0, resized_sent_block_t,
&(block[0]), 25, MPI_INT,
0, MPI_COMM_WORLD);
}
for (int i = 0; i < numprocs; i++) {
MPI_Barrier(MPI_COMM_WORLD);
sleep(1);
if (i == rank) {
printf("\nRank: %d\n", rank);
print_array(block, 5, 5);
}
}
MPI_Finalize();
free(block);
}
が、私はこれを取得する4つのプロセスでそれを実行する:この散乱が間違っている
0 1 2 3 4 5 6 7 8 9
10 11 12 13 14 15 16 17 18 19
20 21 22 23 24 25 26 27 28 29
30 31 32 33 34 35 36 37 38 39
40 41 42 43 44 45 46 47 48 49
50 51 52 53 54 55 56 57 58 59
60 61 62 63 64 65 66 67 68 69
70 71 72 73 74 75 76 77 78 79
80 81 82 83 84 85 86 87 88 89
90 91 92 93 94 95 96 97 98 99
Rank: 0
0 1 2 3 4
10 11 12 13 14
20 21 22 23 24
30 31 32 33 34
40 41 42 43 44
Rank: 1
5 6 7 8 9
15 16 17 18 19
25 26 27 28 29
35 36 37 38 39
45 46 47 48 49
Rank: 2
10 11 12 13 14
20 21 22 23 24
30 31 32 33 34
40 41 42 43 44
50 51 52 53 54
Rank: 3
15 16 17 18 19
25 26 27 28 29
35 36 37 38 39
45 46 47 48 49
55 56 57 58 59
、ランク2の内容に気づくと、 3。
正しいものは次のようになります。
Rank 0: Rank 1:
0,1,2,3,4, 5,6,7,8,9,
10,11,12,13,14, 15,16,17,18,19,
20,21,22,23,24, 25,26,27,28,29,
30,31,32,33,34, 35,36,37,38,39,
40,41,42,43,44, 45,46,47,48,49,
Rank 2: Rank 3:
50,51,52,53,54, 55,56,57,58,59,
60,61,62,63,64, 65,66,67,68,69,
70,71,72,73,74, 75,76,77,78,79,
80,81,82,83,84, 85,86,87,88,89,
90,91,92,93,94, 95,96,97,98,99
質問
Scattervを使用せずに、グリッドの同じサイズのブロックを散乱させる方法はありますか?
あなたのコードはうまく動作していると言っています。あなたの実際の問題は何ですか? – Zulan
@Zulanいいえ、私が投稿した結果は正しい出力ではありません。四つのブロックが視覚的に分かれている特定のボードの冒頭を見てください。左上にプロセス0、右上にプロセス1、左下にプロセス2、そして左下にプロセス3があります。(私は予想される出力を追加しました) – Chris
出力をわずかにスキミングしました。 'MPI_Scatterv'を使って、あなたが正しくしたいことを行う方法については[非常に良い説明があります](http://stackoverflow.com/a/9271753/620382)です。私は不必要にハッキーではない 'MPI_Scatter'だけを使って正しい実装を想像することはできません。 – Zulan