2017-01-22 13 views
1

?私はそれを解決するためにサイズを変更したりScattervいずれかを使用して、まったく同じ問題とないでプロジェクトを持つ覚え
私は道を試してみましたがScattervでhere(あるいはhere)を説明し、それが働いた、けど。ここで散布グリッド

は、私が持っているものと最小のコードサンプルです:

#include <stdio.h> 
#include <mpi.h> 
#include <stdlib.h> 
#include <assert.h> 
#include <memory.h> 
#include <unistd.h> 

void print_array(int* arr, int width, int height) 
{ 
    int i; 
    for (i = 0; i< width * height;i++) 
    { 
     if((i != 0) && (i % width == 0)) 
      printf("\n"); 
     printf("%4d ", arr[i]); 
    } 
    putchar('\n'); 
} 

int main() { 
    int board[100] = { 
      0,1,2,3,4,   5,6,7,8,9, 
      10,11,12,13,14,  15,16,17,18,19, 
      20,21,22,23,24,  25,26,27,28,29, 
      30,31,32,33,34,  35,36,37,38,39, 
      40,41,42,43,44,  45,46,47,48,49, 

      50,51,52,53,54,  55,56,57,58,59, 
      60,61,62,63,64,  65,66,67,68,69, 
      70,71,72,73,74,  75,76,77,78,79, 
      80,81,82,83,84,  85,86,87,88,89, 
      90,91,92,93,94,  95,96,97,98,99 
    }; 

    int numprocs, rank; 
    MPI_Init(NULL, NULL); 
    MPI_Comm_size(MPI_COMM_WORLD, &numprocs); 
    MPI_Comm_rank(MPI_COMM_WORLD, &rank); 

    int* block = calloc(25, sizeof(int)); 
    assert(block != NULL); 


    MPI_Datatype sent_block_t, resized_sent_block_t; 
    MPI_Type_vector(5, 5, 10, MPI_INT, &sent_block_t); 
    MPI_Type_create_resized(sent_block_t, 0, 5*sizeof(int), &resized_sent_block_t); 
    MPI_Type_commit(&sent_block_t); 
    MPI_Type_commit(&resized_sent_block_t); 

    if (rank == 0) { 
     print_array(board, 10, 10); 
     MPI_Scatter(&(board[0]), 1, resized_sent_block_t, 
        &(block[0]), 25, MPI_INT, 
        0, MPI_COMM_WORLD); 
    } 
    else { 
     MPI_Scatter(NULL, 0, resized_sent_block_t, 
        &(block[0]), 25, MPI_INT, 
        0, MPI_COMM_WORLD); 
    } 

    for (int i = 0; i < numprocs; i++) { 
     MPI_Barrier(MPI_COMM_WORLD); 
     sleep(1); 
     if (i == rank) { 
      printf("\nRank: %d\n", rank); 
      print_array(block, 5, 5); 
     } 
    } 

    MPI_Finalize(); 
    free(block); 
} 

が、私はこれを取得する4つのプロセスでそれを実行する:この散乱が間違っている

0 1 2 3 4 5 6 7 8 9 
    10 11 12 13 14 15 16 17 18 19 
    20 21 22 23 24 25 26 27 28 29 
    30 31 32 33 34 35 36 37 38 39 
    40 41 42 43 44 45 46 47 48 49 
    50 51 52 53 54 55 56 57 58 59 
    60 61 62 63 64 65 66 67 68 69 
    70 71 72 73 74 75 76 77 78 79 
    80 81 82 83 84 85 86 87 88 89 
    90 91 92 93 94 95 96 97 98 99 

Rank: 0 
    0 1 2 3 4 
    10 11 12 13 14 
    20 21 22 23 24 
    30 31 32 33 34 
    40 41 42 43 44 

Rank: 1 
    5 6 7 8 9 
    15 16 17 18 19 
    25 26 27 28 29 
    35 36 37 38 39 
    45 46 47 48 49 

Rank: 2 
    10 11 12 13 14 
    20 21 22 23 24 
    30 31 32 33 34 
    40 41 42 43 44 
    50 51 52 53 54 

Rank: 3 
    15 16 17 18 19 
    25 26 27 28 29 
    35 36 37 38 39 
    45 46 47 48 49 
    55 56 57 58 59 

、ランク2の内容に気づくと、 3
正しいものは次のようになります。

Rank 0:    Rank 1: 
0,1,2,3,4,   5,6,7,8,9, 
10,11,12,13,14,  15,16,17,18,19, 
20,21,22,23,24,  25,26,27,28,29, 
30,31,32,33,34,  35,36,37,38,39, 
40,41,42,43,44,  45,46,47,48,49, 

Rank 2:    Rank 3: 
50,51,52,53,54,  55,56,57,58,59, 
60,61,62,63,64,  65,66,67,68,69, 
70,71,72,73,74,  75,76,77,78,79, 
80,81,82,83,84,  85,86,87,88,89, 
90,91,92,93,94,  95,96,97,98,99 

質問
Scattervを使用せずに、グリッドの同じサイズのブロックを散乱させる方法はありますか?

+0

あなたのコードはうまく動作していると言っています。あなたの実際の問題は何ですか? – Zulan

+0

@Zulanいいえ、私が投稿した結果は正しい出力ではありません。四つのブロックが視覚的に分かれている特定のボードの冒頭を見てください。左上にプロセス0、右上にプロセス1、左下にプロセス2、そして左下にプロセス3があります。(私は予想される出力を追加しました) – Chris

+0

出力をわずかにスキミングしました。 'MPI_Scatterv'を使って、あなたが正しくしたいことを行う方法については[非常に良い説明があります](http://stackoverflow.com/a/9271753/620382)です。私は不必要にハッキーではない 'MPI_Scatter'だけを使って正しい実装を想像することはできません。 – Zulan

答えて

1

データ型の変位が一定ではないため、MPI_Scatterでこれを行うことはできないと思います - 変位内の変位は5つの整数(またはサイズ変更されたタイプの1のカウント)ですが、次の行は50の整数の変位(またはcount = 10)です。使用した4つのプロセスで

、:

int counts[4] = {1, 1, 1, 1}; 
    int disps[4] = {0, 1, 10, 11}; 
    ... 
    if (rank == 0) print_array(board, 10, 10); 

    MPI_Scatterv(&(board[0]), counts, disps, resized_sent_block_t, 
       &(block[0]), 25, MPI_INT, 
       0, MPI_COMM_WORLD); 

はOK動作するようです。分散するために別々の呼び出しを行う必要はないことに注意してください.MPIでは、ルートでのみ有効なパラメータはルートでのみ参照されます。