大規模な高密度行列の乗算に効果的にループタイリング/ループブロッキングを使用する方法を教えてもらえないかと疑問に思っていました。私はやっているC = AB 1000x1000行列です。私はループタイリングのためのWikipediaの例に従ってきましたが、タイル張りを使用するよりも悪い結果が得られます。ループタイル/ブロックによる高密度行列の乗算
http://en.wikipedia.org/wiki/Loop_tiling
私は以下のいくつかのコードを提供しています。 naiveメソッドはキャッシュミスのために非常に遅いです。転置方法は、Bの転置をバッファーに作成します。この方法では、行列乗算はO(n^3)となり、転置はO(n^2)となるため、転置は少なくとも1000倍高速です。ブロッキングのないwikiメソッドも高速で、バッファーは必要ありません。ブロック方法は遅いです。ブロッキングに関するもう1つの問題は、ブロックを数回更新する必要があることです。これはスレッド/ OpenMPにとって挑戦です。なぜなら、それが慎重でなければ競合状態を引き起こす可能性があるからです。
私は、転置方法の変更でAVXを使用すると、結果がEigenよりも速くなることを指摘しておきます。しかし、SSEの私の結果はEigenより少し遅いので、私はより良いキャッシュを使うことができると思います。
編集: 私は自分がしたいことを考えていると思います。これは、1969年
私はブロック行列の乗算を行い、各スレッドがCではなく、とBのサブ行列を扱う持っている必要があり http://en.wikipedia.org/wiki/Matrix_multiplication#Communication-avoiding_and_distributed_algorithms
からキャノンのアルゴリズムから来ています。例えば、私の行列を4つのブロックに分割するとします。私はそうするでしょう:
[C1 C2 [A1 A2 [B1 B2
C3 C4] = A3 A4] x B3 B4]
thread 1: C1 = A1B1 + A2B3
thread 2: C2 = A1B2 + A2B4
thread 3: C3 = A3B1 + A4B3
thread 4: C4 = A3B2 + A4B4
それは競合状態を取り除きます。私はこれについて考える必要があります。
void matrix_mult_naive(const float*A , const float* B, float* C, const int N, const int M, const int K) {
#pragma omp parallel for
for(int i=0; i<N; i++) {
for(int j=0; j<K; j++) {
float tmp = 0;
for(int l=0; l<M; l++) {
tmp += A[M*i+l]*B[K*l+j];
}
C[K*i + j] = tmp;
}
}
}
void matrix_mult_transpose(const float*A , const float* B, float* C, const int N, const int M, const int K) {
float *B2 = (float*)aligned_malloc(M*K*sizeof(float), 32);
transpose(B, B2, M, K, 1);
#pragma omp parallel for
for(int i=0; i<N; i++) {
for(int j=0; j<K; j++) {
float tmp = 0;
for(int l=0; l<M; l++) {
tmp += A[M*i+l]*B2[M*j+l];
}
C[K*i + j] = tmp;
}
}
aligned_free(B2);
}
void matrix_mult_wiki(const float*A , const float* B, float* C, const int N, const int M, const int K) {
for(int i=0; i<N; i++) {
for(int j=0; j<K; j++) {
C[K*i + j] = 0;
}
}
#pragma omp parallel for
for(int i=0; i<N; i++) {
for(int l=0; l<M; l++) {
float a = A[M*i+l];
for(int j=0; j<K; j++) {
C[K*i + j] += a*B[K*l+j];
}
}
}
}
void matrix_mult_wiki_block(const float*A , const float* B, float* C, const int N, const int M, const int K) {
const int block_size = 8; //I have tried several different block sizes
for(int i=0; i<N; i++) {
for(int j=0; j<K; j++) {
C[K*i + j] = 0;
}
}
for(int l2=0; l2<M; l2+=block_size) {
for(int j2=0; j2<K; j2+=block_size) {
#pragma omp parallel for
for(int i=0; i<N; i++) {
for(int l=l2; l<min(M, l2+block_size); l++) {
for(int j=j2; j<min(K, j2+block_size); j++) {
C[K*i + j] += A[M*i+l]*B[K*l+j];
}
}
}
}
}
}
パラレルforは、その内部ではなく、外側(タイル)ループを回るようにします。この考え方は、各コアが高速ローカルキャッシュでタイルの乗算を行い、同時にいくつかのコアがそれを行うことができるようにすることです。 –
競合状態が発生します。 C [K * i + j]が数回書き込まれています。 –
例えば、i = 0、j = 0の場合、ブロックメソッドでC [0]が複数回書き込まれます。 –